AI业又一里程碑!OpenAI及甲骨文将接受美政府模型发布前预测试
原创
2024-08-30 11:45 星期五
财联社 马兰
①OpenAI及甲骨文这两家AI领头企业宣布,将与美国人工智能安全研究所合作,在模型发布前进行安全测试;
②美国人工智能安全研究所指出,这是其管理人工智能未来的一大里程碑,未来其将参与所有主要模型发布前后的安全测试。

财联社8月30日讯(编辑 马兰)美国人工智能行业正在逐步接受政府的指导。周四,OpenAI和甲骨文宣布将与美国人工智能安全研究所签署合作协议。

该研究所隶属于美国商务部国家标准与技术研究所。其在一份新闻稿中表示,该所将在各公司的主要新模型公开发布之前,以及发布之后获得这些模型的使用权。

OpenAI及甲骨文则指出,它们已经同意向人工智能安全研究所提供新模型的测试权利,在通过测试后,模型再面向公众发布。

OpenAI首席执行官奥尔特曼表示,很高兴与人工智能安全研究所达成协议,以对该公司的模型进行预发布测试。

该公司首席战略官Jason Kwon也指出,公司相信该研究所发挥着关键作用,以确保美国AI界负责任地开发人工智能,希望能与研究所一起为全球其他国家提供一个可被借鉴的管理框架。

进击的监管

美国人工智能安全研究所成立于2023年,距离拜登发布美国史上首个人工智能行政命令不过寥寥数日。其也是白宫对人工智能进行评估、指导以及研究的关键机构。

美国人工智能安全研究所所长Elizabeth Kelly表示,与OpenAI和甲骨文的协议只是一个开始,其代表了研究所管理人工智能未来的重要里程碑。

而就在本周三,作为美国科技前沿的加利福尼亚州议会通过了一项备受质疑的人工智能安全法案,其强制要求公司对成本或计算能力达到一定规模的人工智能模型进行安全测试,并提供其他保障措施。

该法案的通过可能迫使不少科技公司进一步向监管“投诚”,以换取尽可能大的创新自由。

除此之外,OpenAI也一直因为安全问题而受到批评。据该公司前雇员Daniel Kokotajlo指出,在过去几个月里,公司出现了缓慢而稳定的离职潮,关注人工智能长期风险的OpenAI员工有一半已经离职。

其可能证明了OpenAI内部对于新模型安全性能的忽视正在引发内部的普遍不满。这当然也引发了美国政府部门的关注,而选择此时与美国人工智能安全研究所合作,或许正是OpenAI打消外界疑虑的最好宣传之一。

收藏
50.02W
我要评论
欢迎您发表有价值的评论,发布广告和不和谐的评论都将会被删除,您的账号将禁止评论。
发表评论
要闻
股市
关联话题
9.46W 人关注
4.16W 人关注