人类的许多幻想终于变成了现实,给人类带来了巨大的利益; 人类文明进入21世纪以来,人工智能得到了突飞猛进的发展。 但这一次,人类很可能会被人工智能毁灭。 太空探索技术公司和特斯拉首席执行官埃隆马斯克认为,人工智能是“人类文明面临的最大危险”,智能机器可能导致战争或街头杀戮。 这绝不是危言耸听。
请允许作者为您进行逻辑严密的分析和推理,对人工智能给人类造成灾难的可能性进行细致的分析和评估。
迄今为止,人类智慧制造的最大罪恶是原子弹,它在广岛造成约 14 万人死亡,在长崎造成约 15 万人死亡。 从某种意义上说,原子弹当然是一种人工智能。 因此,我们首先要认识到,人类的智慧和创造力在带来福祉的同时,也带来了灾难,而且往往是巨大的灾难。 今天,基于人工智能已经达到的发展水平,我们可以客观地做出这样一个展望,即人类可以创造出全面超越人类的机器人。 人工智能。 机器人在力量上超越人类是非常容易理解的。 机械手的力量显然可以远超人类手臂的力量,无人车的速度远超人类的奔跑速度; 从现有机器人的动作灵活性来看,灵巧程度等于或超过人类的人工智能已经不远了。 如果一旦人工智能在智能上超越了人类,而人类又不理性地做出预防机制,人类就会失去对人工智能的控制。 人工智能会在智能上超越人类吗? 它会成为现实吗? 事实上,谷歌的已经无可争辩地证明,人工智能的智能显然可以超越人类,并且在围棋这一最复杂的智力对弈中超越了人类。
对于的首场人机大战,笔者曾做出预测——我坚信李世石会先输后赢,最终战胜。 笔者当时的思维逻辑是,机器终究是机器,只能根据预先设定的指令或程序做出判断和选择。 对手的策略可以相应调整。 因此,它永远不可能拥有超越人类的智慧。 因此,李世石在熟悉了的棋步之后,就能以人类的思维能力找到棋步的弱点,将失去还手之力,而李世石则可以轻而易举地赢得最后的胜利。 但是最后的事实证明,作者的判断是完全错误的,李世石(人类)在阿尔法狗面前败下阵来。 人类的这次失败是一个里程碑。 标志着人工智能的智能可以超越人类。 目前,至少在围棋的智力竞赛中,人工智能已经超越了人类,并且远远超越了人类。 人机大战结束后,笔者进行了深刻反思,寻找误判的原因。 我意识到战胜人类绝非偶然而是必然,人类再也不可能战胜了。 今年,与中国棋手再次在中国举行。 比赛结果证明,笔者的判断是正确的。
笔者当时不明白的是,已经具备了自我学习的能力,而且可以24小时不间断学习。 这是第一件事; 在游戏过程中,人的大脑会因心理因素而产生疲劳和干扰。 结果出现错误,人工智能可以保证计算(思维)准确,只要供电不间断,就不会出现错误。 这是第二个。 显然,就围棋这盘棋而言,无论是思维能力还是学习能力,人工智能都超越了人类。 以此类推,人类极有可能创造出智能超越人类的机器人。 如果我们把人脑想象成一台生物计算机,那么,与人工智能级别的电子计算机相比,生物计算机显然有容易产生疲劳和心理精神干扰的弱点,而人工智能则完全没有。 这些弱点都会存在。 不管你是承认上帝创造了世界,还是认同进化论,人脑是一台存在严重缺陷的生物计算机,这是显而易见的事实,人们患上精神分裂症等精神疾病的现象就可以充分印证这一点. 因此,预测人工智能可以超越人类智能的水平并不是不可理解的。 现实世界的 AI 已经展示了自行开发智能的能力,有报道称两个 AI 聊天程序被创建来相互交谈(并相互学习),最终他们停止用英语交流并开始使用非他们自己“发明”的英语。
当然,在这个阶段,AI总会有一些致命的弱点,比如被切断或者失去动力。 但我们完全可以期待,在未来,人类将能够发明出超长续航的电池,或者在机器人身上安装超高效的太阳能电池。 再者,人工智能还可以完全具备给自己充电的能力。 在这种情况下,人工智能可以在没有人类帮助的情况下继续工作或移动; 可能有人会认为雨水或水的攻击对AI来说是致命的,今天已有的水下机器人告诉我们,防雨防水显然可以成为未来机器人的基本性能。 可以想象,未来的机器人一旦制造出来,就可以脱离人类而独立存在,并且在智力、力量、技巧和灵活性等方面远超人类。 想象一下,人需要一日三餐补充能量和几个小时的睡眠,而机器人只要完成自身充电就可以不间断地学习、思考和工作。 报道称:“人工智能的另一个问题是其发展速度不受参数控制。 通用人工智能(AGI)具有指数级增长的能力,因为它会自我完善,并在某一时刻超越其创造者的智力。我们完全有理由做出这样的展望。人工智能将成为人类创造的“外星人”它们不仅在能力上远远超过人类,而且能够独立于人类而客观存在。
人工智能会毁灭人类吗?
现在想想,除了担心人工智能可能导致大规模失业外,我们还看不到人工智能对人类有什么致命的威胁。 或许我们应该认同天才小子扎克伯格的观点——人类的智能已经足够好了,控制人工智能,如果真的做到了,显然会给人类带来巨大的好处。 可以想象,在人工智能的帮助下,人类或许可以享受生活,不再需要工作,所有人都可以睡到自然醒。 问题是,人类的智能真的可以很好地控制人工智能吗? 其实从技术上控制AI是非常容易的。 例如,绝不给人工智能配备使用寿命长的电池,绝不给人工智能设置自充电功能,甚至在开发过程中预先设置保护措施——严禁人工智能开发自充电能力,严格限制在仅在人类的帮助下进行充电的过程。 这其实质是人类理性地给人工智能设定了一个致命弱点。 但我们要思考的是,人类能做到吗? 人类有那么理性吗? 扎克伯格的说法有根据吗? 事实上,正如埃隆马斯克所说:扎克伯格对这个问题的理解“非常有限”。 马斯克显然出于礼貌使用了“非常有限”这个词,而马斯克的真正意思是:扎克伯格对人工智能的理解非常幼稚。
埃隆·马斯克的洞察深刻而正确:人工智能比核武器更危险!
心地善良的扎克伯格确实太天真了(马斯克对他的判断不仅准确而且深刻,这点需要另文讨论),他完全不明白并不是所有的人都像他一样有天赋纯粹的好。 人类社会的客观现实是,恐怖袭击在全球蔓延,种族灭绝事件时有发生,仇恨、敌意、谋杀、强奸、杀人等残酷的不良行为和情绪是人类社会的常态。 ,而人性之恶始终伴随着人类。 . 客观现实表明,迄今为止,人类的智能甚至无法很好地控制自己的行为。 那么,扎克伯格所谓的人类智能究竟从哪里可以很好地控制AI呢?
一般情况下,人类显然不会将上述人类特有的恶行植入人工智能中。 在这样的前提下,人工智能显然会给人类带来巨大的好处,成为人类忠实的伴侣,就像狗是人类忠实的朋友一样——我们在狗眼中看不到任何邪恶。 但是狗会在人类的怂恿下猛烈攻击人。 人性之恶会将忠诚的狗变成危险邪恶的动物,比如二战时日军和德军的军犬。 我们的问题是,人类能否守住这个底线——绝不向人工智能植入或传递人性之恶。 这显然是非常值得怀疑的,逻辑也不复杂。 如果我们承认计算机病毒的发展是人类无法控制的,那么合理的推理就是人工智能沾染人性之恶是不可避免的。 试想,一个能指点战斗地点、吃喝地点的杀手,在我们的城市里进行疯狂的暗杀行动,那岂不是人类的噩梦吗?
个人的恶是显而易见的,那么,从整个社会的角度来看,人类是否可以通过某种联盟,比如已经在硅谷成立的组织,来实现扎克伯格所说的,用人类的智慧来人工智能的发展? 适当的约束和控制呢? 作者的结论是,人类仍然无法避免人工智能可能带来的灾难。 想象一下,在未来的某一天,在世界的某个角落,像希特勒(希特勒显然是个邪恶的天才)这样的计算机天才,出于对权力的强烈渴望,想要成为世界的主人。 为此,他将像希特勒一样尝试征服世界。 而他的电脑网络天才,让他有可能使用某种病毒来控制全世界的机器人服从他。 他可以设置病毒攻击时间,让他瞬间拥有一支无敌的机器人队伍。 当年的纳粹军队,毫无疑问,整个世界都在他的掌控之中,拯救它的办法只能是另一个心地纯洁的电脑天才。 他可以破解这个病毒天才,但是这样的天才会像超人那样及时出现吗? 我设想的只是其中一种可能的场景,被植入人性之恶并自我进化的AI,可能会进化出更可怕的结果。
人性之恶是AI可能毁灭人类的根本原因。 美国宪政之父麦迪逊说:“美国革命最重要的特点不仅是顺应人性,而且承认人性的黑暗。” 同样,在人工智能带来的人类社会革命中,我们也必须充分考虑到人性的黑暗,或者说人性的恶。 人类文明程度还没有发展到完全压制人性之恶的时候,人类就不应该大力发展。 人工智能。 否则,人类必然会因为人性的恶而走向人工智能的自我毁灭。 埃隆马斯克的担忧非常有见地。
这就形成了一个悖论。 至少现在,人性的黑暗依旧。 迄今为止,人类的贪婪依然主宰着我们的社会,而贪婪必然导致人工智能发展到人类无法控制的地步。 因此,所谓以理性为基础延缓人工智能的发展,不过是一个必然落空的美好愿望。 同样,希望人类能够理性预设对人工智能的预防和保护措施,也必定是空饼。 在贪婪的动物精神的驱使下,人类必将加速人工智能的发展,而人性的阴暗面必然使人工智能沾染人性之恶,成为毁灭人类的潜在因素。 总之,人性之恶是万恶之源,人性之恶也是AI完全有可能毁灭人类的根本原因。
写这篇文章的目的不仅仅是讨论人工智能会带来的灾难,更是希望每一个中国人都能思考一个问题:“人性本善”是不是对人性的正确认识?
編輯:碩谷新聞聚合
發表評論 取消回复