美国寻求ChatGPT等AI产品的监管意见
添加书签专注AIGC领域的专业社区,关注GPT-4、百度文心一言、华为盘古等大语言模型(LLM)的发展和应用落地,以及国内LLM的发展和市场研究,欢迎关注!
4月12日,美国商务部表示,将在接下来的 60 天内就人工智能审计、风险评估和其他措施的可能性征求意见,这些措施可以缓解消费者对这些新技术产品的担忧。
美国希望采取强有力的监管措施来测试ChatGPT 等AI产品在公开发布之前的安全性,但尚未决定政府是否会参与审查。
美国国家电信和信息管理局(NTIA)负责人Alan Davidson表示,在新技术发展的同时,也要保证其安全性、可靠性。新的大语言模型功能非常强大,它们确实会产生一些有害的内容。新的监管政策不仅可以降低产品的安全性,也可以让企业以更加安全的方式发展创新技术。
NTIA寻求的监管政策意见主题如下:
-
人工智能开发公司及其企业客户应该进行什么样的信任和安全测试。
-
进行审计和评估需要什么样的数据访问。
-
监管机构和其他参与者如何激励和支持人工智能系统的可信保证以及其他形式的问责制。
-
不同行业可能需要哪些不同的监管方法——如就业或医疗保健。
NTIA的AI监管意见,可了解哪些政策可以支持AI审计、评估、认证和其他机制的发展,以赢得人们对AI系统的信任。
这就像财务审计建立对企业财务报表准确性的信任一样。对于AI而言,此类机制可以帮助确保AI系统是值得信赖的,因为它可以按照预期进行操作而不会产生不利后果。而AI企业在监管的指导下,能以更安全的方式进行技术创新。
目前,随着ChatGPT等生成式AI的飞速发展,其安全性、数据隐私、道德等问题越发明显,并受到了全球多数国家的高度重视。
此前,欧洲消费者组织 (BEUC)呼吁欧盟对ChatGPT 和类似聊天机器人进行展开调查。尽管欧盟正在出台AI管理法案,但BEUC担心法案生效可能需要数年的时间。在这期间,消费者可能会遭遇未受到监管的技术带来的风险和伤害。
欧洲刑警组织指出,ChatGPT可为非法犯罪行为提供欺诈文案、虚假信息和网络犯罪3种便利条件。需要监管部门对ChatGPT等生成式AI进行有效监管和制定使用规则框架。
英国则发布了《支持AI创新的监管方法》政策文件。该文件指出,生成式AI技术将为工作、生活、交通、气象、金融、娱乐、科学研究、医药研发、工业制造等各个领域带来颠覆性技术变革。
但ChatGPT等AI产品仍处于早期发展阶段,民众对其存在不信任、数据泄露、窃取隐私等安全担忧。英国希望通过此政策文件消除用户的忧虑并降低AI的输出风险,激励企业、民众共同参与到这场AI技术变革中。
相信随着AI监管政策的逐步完善,ChatGPT等AI产品的安全问题将得到有效解决,这无论是对于企业还是个人用户来说,都是一个双赢的局面。
关于NTIA
美国国家电信和信息管理局 (NTIA) 隶属于美国商务部,是主要依法负责就电信和信息政策问题向总统提供建议的行政部门机构。
NTIA 的计划和政策制定主要侧重于在美国扩大宽带互联网接入和采用,扩大所有用户对频谱的使用,并确保互联网仍然是持续创新和经济增长的引擎。
本文素材来源NTIA,如有侵权请联系删除
END
加入AIGC开放社区交流群
添加微信:13331022201 ,备注“职位信息&名字”
管理员审核后加入讨论群