【资料图】
多位顶级AI研究人员、工程师和CEO就AI对人类构成的生存威胁发出了最新警告:“减轻人工智能带来的灭绝风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”
超过350名人工智能行业的人士联合签署了22字简洁声明。
当地时间5月30日,这份只有22个单词的声明发布在非营利组织人工智能安全中心(Center for AI Safety)的网站上。该网站表示:人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的重要和紧迫的广泛风险。即便如此,也很难表达对先进人工智能的一些最严重风险的担忧。下面的简洁声明旨在克服这一障碍并展开讨论。它还旨在为越来越多的专家和公众人物提供常识,他们也认真对待先进人工智能的一些最严重风险。
超过350名从事人工智能工作的人士签署了这份声明。签署者包括Google DeepMind首席执行官戴米斯·哈萨比斯(Demis Hassabis)、OpenAI首席执行官山姆·奥特曼(Sam Altman)、“AI教父”杰弗里·辛顿(Geoffrey Hinton)和约书亚·本希奥(Youshua Bengio)等,辛顿和本希奥因其在AI方面的工作获得了2018年图灵奖,一同获得该奖项的AI大牛、Meta首席人工智能科学家杨立昆(Yann LeCun)尚未签名。
其中一些签署者,在今年早些时候签署了另外一封公开信,呼吁“暂停”开发比GPT-4更高级的AI至少6个月,这封信在多个层面受到批评,一些专家认为它夸大了人工智能带来的风险,而一些人则赞同存在这种风险,但不同意信中建议的措施。
人工智能安全中心执行主任丹·亨德里克斯(Dan Hendrycks)告诉《纽约时报》,5月30日的声明很简洁,没有提出任何减轻人工智能威胁的潜在方法,旨在避免这种分歧。 “我们不想推动包含30种潜在干预措施的庞大菜单。”亨德里克斯说,“当这种情况发生时,它会淡化(想传达的)信息。”
标签
Copyright ? 2015-2022 华中粮油网版权所有 备案号:京ICP备12018864号-26 联系邮箱:2 913 236 @qq.com