“正如我常说的:在创造人工智慧这件事上,只有“天才”才蠢到足以把我们所有人都害死,而其他人根本造不出能毁灭我们的工具。”
“我们经常会设想“灰色粘质”这类场景:自我复製的纳米机器人將一颗行星变成由它们自身构成的“播种海洋”。”
“人们常常將这种场景与地球早期生命的演化进行对比——地球早期生命遍布全球,並最终通过光合作用等过程改变了地球环境,为包括人类在內的更复杂生命形式的出现铺平了道路。”
“然而,如果自我复製机器人像早期生命那样容易发生突变,那么从“灰色粘质”中进化出“智能体”可能需要数十亿年的时间。”
“但这种情况似乎不太可能发生——因为任何设计这类机器的人,都可能已经掌握了关於进化和突变的知识,也可能接触过警告“失控人工智慧”或“失控机器人系统”的科幻作品。”
“因此,有理由认为,人们会採取措施来防止不必要的突变,例如:提高复製精度、设置“纠错算法”,以及安装物理防护装置以確保“高保真复製”——这些措施都能將突变风险降至最低。”
“殭尸人工智慧,为费米悖论提供了一个合理且发人深省的解决方案。”
“它表明,“宇宙的大寂静”可能是文明“败给自身技术野心”的结果。”
“因此,在我们继续发展先进人工智慧的过程中,必须谨慎行事。宇宙之所以寂静,或许並非因为缺乏智能,而是因为“没有意识的智能”可能会成为自身最大的敌人。”
“我认同这一观点,它是近年来我听到的关於费米悖论的较好解释之一。但该观点也存在一些潜在的漏洞。”
“首先,这一观点假设“人工智慧的发展存在必然的先后顺序”。”
“由於我们可以说“已经拥有了基础的殭尸人工智慧,且已经拥有一段时间了,但尚未拥有感知型人工智慧”,因此得出“感知型人工智慧在殭尸人工智慧之后出现,而非之前”的结论,似乎是合理的。”
“但该推理的第二部分——“若不先遭遇危险的人工智慧,就无法拥有安全的人工智慧”——则似乎有些牵强。”
“对费米悖论而言,“潜在危险的人工智慧”並非关键,只有那些“真正脱离控制、要么毁灭其创造者、要么造成巨大破坏以至於永久改变文明轨跡(使其无法成为『喧闹的外星人)”的人工智慧,才与费米悖论相关。”
“我並不认为这种“危险→安全”的发展顺序是“必然的”。”
“目前,我们拥有人工智慧,但没有感知型人工智慧。像chatgpt这样的系统是否属於“殭尸人工智慧”,想必仍存在爭议。”
“我认为它不属於——我猜测撰写本脚本的编辑们也持相同观点。”
“而且,当我询问chatgpt时,它也否认自己是殭尸人工智慧,理由是“它没有思想、欲望,也无法反思自身存在”。”
“它解释称,自己的运作方式是“遵循模式、逻辑和处理数据,以提供有用且连贯的响应”,但“不会有任何体验或感受”,它“纯粹是计算性的”,不存在“能动性”。”
“不过,“具有能动性的人工智慧”似乎正在迅速发展,因此我认为“chatgpt不是殭尸人工智慧”这一判断是可靠的——但有趣的是,当我询问另一个人工智慧时,它却將chatgpt归类为“哲学殭尸”或“殭尸人工智慧”。”
“在今天的討论中,我们对“殭尸人工智慧”一词的使用略显宽泛,既包括了那些可能“超出殭尸人工智慧范畴上限”的例子,也包括了“低於殭尸人工智慧范畴下限”的例子。”
“就我个人而言,我乐於使用人工智慧来帮我修正糟糕的拼写和语法,或进行简单的计算。”
“如今,我通常会把段落输入人工智慧,让它帮我修正冗长的句子和拼写错误,而我则继续处理下一部分內容——但我並不关心它对复杂话题的“看法”。”
“按照这个標准,我可以放心地说,chatgpt是“殭尸人工智慧”的一个简单例子,或许可以称为“原始殭尸人工智慧”——尤其是因为我们例子中的“太空鸡”,其运作所需的技术远没有这么复杂,而如今,作为“可能遍布星系的安静外星人”的代表,“太空鸡”才是我们主要关注的对象。”
“当然,也有可能chatgpt和“太空鸡”都不属於“殭尸人工智慧”。”
“儘管如此,我们当前的人工智慧系统,並非“天网”(skynet,《终结者》系列中失控的人工智慧)式的直接威胁。”
“因此,我们不能想当然地认为“危险的殭尸人工智慧必然先於危险的感知型人工智慧出现”,也不能认为“只有在人工智慧造成灾难性伤害后,才能开发出安全的人工智慧”。”
……
【感知能力可选项?外星人:意识是dlc,我们买不起!】
【楼上笑死!宇宙大寂静是因为大家都被自己的殭尸ai干掉了?这剧本太黑暗了!】