2021年6月5日消息,OpenAI和谷歌DeepMind的数名前任和现任员工近日联名发布公开信,对高级人工智能的潜在风险以及当前缺乏对人工智能科技公司的监管表示担忧。
公开信指出,随着人工智能技术的迅速发展,高级人工智能可能带来不可预测的后果。智能系统可能被滥用或误用,对人类造成危害。目前,监管人工智能领域的政策和法规相对滞后,缺乏明确的指导和规范。
签署
本站注意到,这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。
信中写道,人工智能公司拥有强大的经济利益驱动它们继续推进人工智能研发,同时着对保护措施和风险水平的信息讲述莫如深。公开信认为,不能指望这些公司会自愿分享这些信息,因此呼吁内部人士站出来发声。
由于缺乏有效的政府监管,这些现任和前任员工成为能够让这些公司对公众负责的少数群体之一。然而,由于严格的保密协议,员工被限制发声,只能向可能并未妥善处理这些问题的公司反映问题。传统的举报人保护措施并不适用,因为此类措施依赖于追踪和调查,而目前令人担忧的是不受监管。
由于这种情况的存在,目前令人担忧的是许多风险尚未受监管。
员工们呼吁人工智能公司为揭露人工智能风险的人士提供可靠的举报人保护措施,具体包括:
- 不得创建或执行阻止员工对风险相关问题提出批评的协议;
- 提供可验证的匿名程序,使员工能够向董事会、监管机构和相关领域的独立组织提出与风险相关的担忧;
- 支持开放批评的文化,允许员工在保护商业机密的前提下,向公众、董事会、监管机构等方面提出与技术相关的风险担忧;
- 在其他程序失效后,避免对公开分享风险相关机密信息的员工进行报复。
共有13名员工签署了这封公开信,其中包括7名前OpenAI员工,4名现任OpenAI员工,1名前谷歌DeepMind员工和1名现任谷歌DeepMind员工。据悉,OpenAI曾因员工发声而威胁取消其既得权益,并要求员工签署严格的保密协议限制他们批评公司。
以上就是OpenAI 和谷歌 DeepMind 员工联名发声:高级人工智能风险巨大,亟需加强监管的详细内容,更多请关注叮当号网其它相关文章!
文章来自互联网,只做分享使用。发布者:叮当号,转转请注明出处:https://www.dingdanghao.com/article/574412.html