几小时前,全球最有影响的人工智能公司的领导人,包括OpenAI CEO,Anthropic CEO,Google Deepmind CEO,Notion CEO,微软CTO等,以及AI科学家(包括图灵奖获得者Geoffrey Hinton and Youshua Bengio),大学教授(包括张亚勤等中国学者),联名签署了一份仅22个词、措辞紧张的公开呼吁:
减轻人工智能带来的灭绝风险,应该与其他社会规模的风险(如疫情流行和核战争)一起,成为全球优先事项。
在我印象中,这已经不是众多AI科学家们第一次公开发表类似呼吁,“人工智能末日论者”包含了人工智能领域最顶级的科学家和开创者。
我想到的是克隆羊的诞生。我第一次在杂志上看到动物克隆的报道时还在上小学,那时都在惊呼科学的发展,过了十多年真的就搞出来了:
今天人工智能发展的风险背后的人类社会复杂性已经远远超过了科技本身:
对于这种风险防范的呼吁,早就有阴谋论者认为是这些人工智能厂商和科学家一边呼吁不让别人搞,一边自己偷偷搞,以拖滞竞争者和后来者的步伐,这就像全球环保和发展的争议一样,看起来是科学问题,其实是政治问题。
如果人工智能风险是真的,谁有责任率先履行避险义务,后进方是否有责任因为避险而放弃发展、放弃追赶权利?
对,人工智能就是疫情、就是核武器,并且和克隆、环保等一起最终变成人类社会的政治博弈。
发表评论