OpenAI 员工发表公开信警告人工智能行业缺乏安全监督
凤凰网科技讯 6月5日,知名人工智能公司现员工与前员工发表了一封公开信,警告该行业缺乏安全监督,并呼吁加强对举报人的保护。这封呼吁《对人工智能提出警告的权利》的公开信,是人工智能行业员工就人工智能的危险的一次公开发声,11名现任与前员工、两名谷歌员工在这封信上签了名。
信中指出,“人工智能公司掌握着大量非公开信息,这些信息涉及其系统的能力和局限性、保护措施的充分性以及不同种类危害的风险水平。然而,这些公司目前只有微弱的义务与政府分享部分信息,而没有义务与民间社会分享信息。我们认为不能依靠它们全部自愿分享这些信息”。
在一份声明中为自己的做法进行了辩护,称公司有举报热线等渠道来报告公司存在的问题,并且在有适当的保障措施之前不会发布新技术。谷歌未立即回应置评请求。
发言人表示,“我们为提供最有能力和最安全的AI系统的记录感到自豪,并相信我们在应对风险方面的科学方法。鉴于这项技术的重要性,我们同意进行严格的辩论是至关重要的,并且我们将继续与政府、民间社会和世界其他社区接触,”
对人工智能潜在危害的担忧已经存在了几十年,但近年来的人工智能繁荣加剧了这些担忧,使监管机构措手不及,难以跟上技术进步的步伐。尽管AI公司公开表示承诺安全开发技术,但研究人员和员工警告称,缺乏监督可能会加剧现有的社会危害或创造全新的问题。
由现任和前AI公司员工签署的这封信首次由《纽约时报》报道,呼吁加强对在先进AI公司工作并决定提出安全问题的员工的保护。它要求公司承诺四项关于透明度和问责制的原则,包括一项规定,即公司不得强迫员工签署任何禁止公开AI风险相关问题的非贬损协议,并建立一个机制,使员工能够匿名向董事会成员分享担忧。
“只要这些公司没有有效的政府监督,现任和前任员工是少数能对公众负责的人之一,”信中写道。“然而,严格的保密协议阻止我们表达我们的担忧,除了对那些可能未能解决这些问题的公司。”
等公司还采取了积极的策略,防止员工自由谈论他们的工作。据Vox上周报道,让离职员工签署极其严格的保密文件,否则将失去所有已归属的权益。首席执行官Sam 在报道后道歉,称他将改变离职程序。
在两名高层员工、联合创始人Ilya 和关键安全研究员Jan Leike上月辞职后,这封公开信发布了。Leike在离职后声称已放弃了安全文化,转而追求“闪亮的产品”。
周二的公开信呼应了Leike的一些声明,称公司没有表现出对其运营透明的义务。