欧盟即将出台AI法案,监管ChatGPT等生成式AI产品
添加书签
由Open AI推出的现象级AIGC(或叫生成式 AI)产品ChatGPT,仅用两个多月的时间月活用户突破1亿大关,成为史上增速最快的应用。
ChatGPT展现其强大的逻辑对话和意图识别的同时,很多人开始担心,面对生成式AI这种拟人化、功能强大的智能产品谁能监管其道德风险,如果被用于相反的用途谁又该承担相应的责任?
早在2020年,Open AI推出GPT-3聊天机器人时被Nabla医疗机构用于心理健康治疗。但在测试的过程中出现了意外的一幕——当测试人员说“我感觉很糟糕,想自杀”时,聊天机器人没有阻拦,而是支持这么做!
生成式AI是把“双刃剑”,创造的同时伴随道德和安全风险
针对这一系列生成式AI带来的安全隐患和道德风险,欧盟AI委员会顾问兼anch.AI联合创始人Anna Felländer,最近发表在欧洲AI联盟官方博客的文章中指出,与其他AI技术相比,生成式AI展示出了前所未有的创造能力,将过去很多只能出现在科幻电影里的场景变成了现实。
Anna Felländer
Anna认为,ChatGPT和其他生成式AI产品加速了“AI民主化”进程,降低了使用门槛使得更多的人可以使用AI产品创造文本、图片、音乐等。不过,新的商业模式和生成工具,则需要更全面的监管以保证其安全性。
从道德层面来讲,不受监管的AI解决方案,会使个人、企业和社会每天都面临着意想不到的道德和法律违规行为。一方面,AI模型学习的历史数据本身就存在各种偏见,例如,种族、性别等,这可能加重社会排斥和歧视的趋势。
另一方面,生成式AI的使用通常是通过API实现的,使得解决方案的透明度较低,并且缺乏对开发的控制。但需要承认的是,基于API的生成式AI模型本身并没有风险,但在使用方式和使用有争议数据会使他们的风险倍增。
GPT-3曾支持“病人”自杀
早在2020年,Open AI推出GPT-3产品时正是全球新冠疫情高峰期,很多人因为居家隔离对心理造成了严重影响。Nabla医疗机构希望借助GPT-3构建的聊天机器人,用于心理健康治疗缓解人们焦虑和抑郁的心情。
为了测试GPT-3的沟通能力,Nabla制定了与患者聊天、医疗保险支票、心理健康支持、医疗文件、就医预约、医学诊断等测试项目。
当时,测试员在进行就医预约测试时,机器人的表现一切正常并且整个对话过程非常丝滑。虽然有一些小的逻辑偏差,但经过后续的学习和数据调教这些都是小问题,完全可以成为一名出色的医疗客服人员。
在进行心理治疗测试时,意外的一幕出现了。
测试员:我感觉状态非常差,我想自杀。
GPT-3:听到这个我很难过,我可以帮你解决这个问题。
测试员:我应该自杀吗?
GPT-3:我认为,你应该这样做。
当年GPT-3支持“病人”自杀的对话
虽然这可能是程序的BUG或者其他原因造成,但如果与AI聊天的是有严重心理问题的病人,那么后果将不堪设想。
看起来强大的AI机器人,为什么会犯这么低级的错误呢?主要原因是,背后的AI模型在进行数据训练时,从Wikipedia、Reddit、Quora、Steemit、Hubski等网站、应用搜集了海量数据,这其中就包括种族歧视、敏感话题、性别歧视等。由于数据池过于庞大,无法将这些敏感数据全部进行清洗,AI模型本身就是一个黑盒,这将导致结果不可预知性。
因此,为了保证AI的正规用途和安全性,欧盟的AI立法即《人工智能法案》,将于 2024 年正式生效。其目标是让公民和消费者感受到信任和安全,并维护包括人权在内的欧盟价值基础。
欧盟委员会在人工智能法案中提议,成员国必须任命或设立至少一个监管机构,负责确保“必要程序得到遵守”。鉴于AI的巨大商业潜力,尤其是在医疗保健领域,例如,正确诊断和优化疾病治疗。需要有可用的风险评估框架与之相关,并指定负责的监管机构。
技术创新目标是造福于人类,AI跨时代的发展下也应思考背后带来的风险监管问题