ChatGPT之父:公司不会上市,应建立AI界的“国际原子能机构”
添加书签专注AIGC领域的专业社区,关注GPT-4、百度文心一言、华为盘古等大语言模型(LLM)的发展和应用落地,以及国内LLM的发展和市场研究,欢迎关注!
当地时间6月6日,阿尔特曼的“巡回演出”来到阿联酋的阿布扎比。阿联酋AI管理部门代表安德鲁表示,该国愿意展现出“强国的风范”,在全球AI监管规则建立过程中尽一份力。
近期芯片巨头英伟达乘着AI东风,市值突破万亿美元大关。如果提供AI底层大模型的OpenAI能够公开上市,将极大地刺激全球投资者的想象力。不过在被问及是否会让OpenAI上市时,阿尔特曼给出了坚定的回答:“我不想被股东大众和华尔街等起诉,所以答案是‘不’,我对上市不感兴趣。”
OpenAI成立于2015年,最初是一家非营利组织,该公司在2019年转为一家营利性初创企业,并从微软获得了10亿美元的投资。
OpenAI在向微软融资时曾宣布,将自身定义为有限盈利企业,这允许它筹集外部资金,但同时公司的运营不像一般企业那样以股东收益最大化为目标。今年1月,微软又向OpenAI提供了第二笔投资,投资额度据称高达100亿美元。OpenAI目前的估值据报道接近300亿美元。
阿尔特曼称:“我们有一个非常奇怪的结构,我们给自己设置了利润上限,所以我们可能会作出一些让大多数投资者感到非常奇怪的决定。”
他还表示AI技术发展速度非常迅猛,超过一般人的想象。“GPT-4将在几年后看起来像一个小玩具,不再会那么令人印象深刻。”
对于人工智能在很多工作岗位上迅速取代人类的现象,阿尔特曼评价称,未来的工作将和今天的许多工作大不相同,他并不认为AI的发展会让人类丢掉饭碗。
谈AI监管:
国际原子能机构是个好榜样
阿尔特曼一直对AI技术的安全性感到忧心忡忡,四处呼吁政府机构应当肩负起监管责任,为全人类的生存安全当好“看门人”。他表示,“我们面临着严重的风险,甚至是生存风险。世界面临的挑战,是我们如何管理这些风险并确保我们仍然能够享受AI带来的巨大好处。没有人想毁灭世界。”
今年5月,包括阿尔特曼在内的数百名行业领袖签署了一封公开信,警告称“减轻AI灭绝的风险,应该与流行病和核战争等其他社会风险一起,成为全球优先事项”。
阿尔特曼在5月去美国国会作证时指出,政府干预对于管理AI带来的风险至关重要。5月底他还去欧洲进行拜访,与西班牙、法国、波兰、德国和英国等国政要会面,讨论人工智能的未来和ChatGPT的进展。欧盟正计划推出世界首套人工智能监管法案,美媒称,该法案可能将成为AI领域的全球标准。
在昨天(6日)阿布扎比的这场会议上,阿尔特曼再次提出,要建立一个类似于联合国的机构统辖全球的AI监管。其间,他将国际原子能机构(IAEA)作为例证来阐述个人观点——后者是一个同联合国建立关系,并由世界各国政府在原子能领域进行科学技术合作的机构。
阿尔特曼说,“我们将国际原子能机构视为一个典范,所以让我们都设置一些‘护栏’吧。我认为面对AI发展,我们也可以达成这些共识。AI在今天并没有那么危险,但它很快会变得危险,在那之前人类有机会组织起来建立防护网。”
本文来源红星新闻,如有侵权请联系删除
END