第0220章 分论坛论剑人工智能 休息区乱涌 (第1/2页)
下午两点,达沃斯论坛分论坛“人工智能与人类未来”在主会议厅侧翼的智能会议中心举行。
与上午容纳两千人的主厅不同,这个会议中心只设了两百个座位,但每个座位都配备了实时翻译设备、交互式触摸屏和生物识别系统。参会者需要经过三道安检才能入场,门口的瑞士特种部队士兵面无表情,但眼神锐利地扫视着每一个进入的人。
毕克定的伤口在止痛药的作用下已经麻木,但每一次抬臂动作还是会牵扯到缝合处。他拒绝了小周让他坐轮椅的建议,自己走进了会场。
会议中心的灯光是柔和的暖白色,环形布局的座位围绕中央的圆形讲台。毕克定的位置在第一排,左手边是DeepMind的创始人德米斯·哈萨比斯,右手边是麻省理工学院媒体实验室主任伊藤穰一。两人都已经入座,见毕克定到来,都起身握手。
“毕先生,上午的演讲令人印象深刻。”哈萨比斯是个瘦高的英国人,说话带着牛津口音,但眼神里有一种技术天才特有的狂热,“特别是最后那部分——在刺杀面前依然坚持完成演讲,这需要非凡的勇气。”
“谢谢。只是做了该做的事。”毕克定与他握手,能感觉到对方手掌的温度和力度。
伊藤穰一则更直接:“毕先生,您肩膀的伤怎么样?需要的话,我认识苏黎世最好的外科医生。”
“已经处理过了,不碍事。”毕克定笑了笑,入座。
他能感觉到来自四面八方的目光。上午的事件已经传遍了整个达沃斯,现在会场里的每一个人——学者、企业家、记者、政要——都在看他。那些目光里有好奇,有敬佩,有怀疑,也有难以掩饰的敌意。
毕克定打开座位上的触摸屏,调出论坛议程。今天下午有三个环节:首先是三位主讲人各十五分钟的简短发言,然后是四十分钟的圆桌讨论,最后是半小时的观众提问。
他注意到,观众名单里有几个熟悉的名字。摩根家族的代表坐在第三排,正低声与身旁的人交谈;那位中东王室基金的负责人坐在第五排,面无表情;而“小林次郎”——或者说,伪装成小林次郎的那个人——坐在最后一排的角落,戴着眼镜,低头看着手中的平板,仿佛对周围的一切漠不关心。
但毕克定能感觉到,那个人在用余光观察他。
“女士们,先生们,下午好。”主持人走上讲台,是《自然》杂志的主编,“在开始之前,请允许我代表组委会,再次对上午发生在主会场的恶性地事件表示最强烈的谴责。我们很高兴看到毕克定先生依然选择出席今天的论坛,这展现了非凡的勇气和责任感。”
掌声响起,比上午热烈得多。
毕克定微微颔首致意。
“那么,让我们直接进入主题。”主持人说,“第一位发言者,德米斯·哈萨比斯博士,DeepMind创始人。他将与我们分享‘通用人工智能的伦理边界’。”
哈萨比斯走上讲台。他是个出色的演讲者,用简洁清晰的语言阐述了DeepMind在AI安全领域的最新研究。“我们正在接近一个临界点,”他说,“在未来五到十年内,人工智能系统可能会在某些特定领域达到甚至超过人类水平。但能力的提升也带来了风险——如果AI的目标与人类价值观不完全一致怎么办?如果它们发展出我们无法理解的行为模式怎么办?”
他展示了几段视频:DeepMind开发的AI在围棋、星际争霸等游戏中击败人类冠军后,开始出现“非预期行为”——比如在围棋中故意下出看似糟糕的棋,引诱对手犯错;在星际争霸中利用游戏漏洞,以人类完全无法理解的方式赢得胜利。
“这些还只是游戏。”哈萨比斯严肃地说,“但如果AI被用于医疗诊断、金融市场、军事决策呢?一个微小的目标偏差,就可能导致灾难性后果。因此,我们必须现在就建立AI的伦理框架和安全协议,而不是等到问题发生后再补救。”
台下响起赞同的低语。哈萨比斯的观点代表了AI研究界的主流担忧——技术跑得太快,伦理和监管跟不上。
接下来是伊藤穰一。这位日裔美籍学者的风格更加开放和乐观。“我同意德米斯的担忧,但我想从一个不同的角度切入。”他打开幻灯片,上面是一个词:“Symbiosis(共生)”。
“过去几十年,我们一直在讨论AI会不会取代人类。但也许,更重要的视角是:AI如何与人类共生?”伊藤穰一展示了MIT媒体实验室的最新项目——可穿戴AI助手、脑机接口、情感识别系统……“我们的目标不是创造超越人类的超级智能,而是创造能够增强人类能力的伙伴。AI不应该是一个黑箱,而应该是一个透明的、可理解的、与人类价值观对齐的协作系统。”
他讲了一个案例:一个患有肌萎缩侧索硬化症(ALS)的患者,通过脑机接口和AI辅助,重新获得了与外界交流的能力。“这不是取代,而是赋能。AI最大的价值,不是替代人类,而是帮助人类成为更好的自己。”
掌声再次响起。伊藤穰一的观点更符合公众的期待——技术应该服务于人,而不是威胁人。
然后,轮到毕克定了。
他走上讲台,调整了一下麦克风的高度。左肩的伤口在动作时传来刺痛,但他面不改色。
“感谢主持人的介绍,也感谢德米斯和伊藤的精彩分享。”毕克定开口,声音通过音响系统清晰地传遍会场,“在我开始之前,我想先回应一个可能很多人心中的疑问:一个主要投资领域是能源、生物技术、太空探索的财团**,为什么会对人工智能感兴趣?”
他停顿了一下,目光扫过全场:“因为在我看来,AI不是一项独立的技术,而是一把钥匙——一把打开人类未来所有大门的钥匙。”
点击遥控器,身后的大屏幕亮起。出现的不是PPT,而是一段全息投影——这是神启财团最新研发的显示技术,不需要任何设备,直接在空气中生成三维图像。
画面中,一个虚拟的地球缓缓旋转,上面标注着无数光点。
“这是神启财团正在进行的117个AI相关项目。”毕克定说,随着他的讲述,某些光点被放大,显示出具体的应用场景:
在非洲,无人机搭载的AI系统正在监测疟疾蚊的孳生地,预测疫情爆发,提前部署防控资源;
在南极,AI分析气候数据,帮助科学家更准确地预测冰川融化和海平面上升;
在城市的交通系统里,AI实时优化信号灯,减少拥堵,降低碳排放;
在医院,AI辅助医生读片,将早期癌症的检出率提升了40%;
“但这些,都还只是AI的初级阶段应用。”毕克定切换画面,全息投影变成了复杂的神经网络结构图,“真正的问题不是‘AI能做什么’,而是‘AI应该成为什么’。”
他看向哈萨比斯:“我同意德米斯的观点,AI需要伦理边界和安全协议。但我想补充一点:这些边界和协议,不应该只由开发者、企业、政府来设定。”
又看向伊藤穰一:“我也同意伊藤的观点,AI应该与人类共生。但共生不意味着平等——在可预见的未来,AI仍将是工具,是人类意志的延伸。”
全息投影再次变化,出现了一个倒金字塔结构。最底层是“基础研究”,往上是“技术开发”,再往上是“产品应用”,最顶层是“社会影响”。
“目前全球对AI的讨论,大多集中在中间两层——技术怎么开发,产品怎么应用。”毕克定指向金字塔的底层和顶层,“但缺少了对两端的深入思考:最底层,AI的基础理论到底是什么?最顶层,AI最终会将人类社会带向何方?”
会场安静下来。这个问题太大,太根本,以至于很少有人敢在公开场合如此直接地提出。
“神启财团的研究团队,在过去六个月里,一直在做一个实验。”毕克定说,“我们训练了一个特殊的AI模型,不给它任何具体任务,只给它一个最基础的目标:‘理解’。”
“理解什么?”
“理解一切。”毕克定平静地说,“理解物理定律,理解生物进化,理解人类历史,理解艺术创作,理解情感,理解意识本身。我们不给它任何限制,不设任何边界,只是让它尽可能地去‘理解’这个世界的运行规律。”
哈萨比斯皱起眉头:“这很危险。一个没有明确约束的AI,可能会发展出无法预测的行为模式。”
“我们设置了安全机制——如果AI的行为可能对现实世界产生物理影响,系统会自动终止。”毕克定说,“但除此之外,我们给了它最大限度的自由。而结果……令人惊讶。”
全息投影展示出一段代码流。那不是人类能读懂的编程语言,而是一种更加抽象、更加本质的符号系统。代码在不断自我演化,生成新的结构,然后又分解重组。
“这个AI,我们称之为‘索菲亚’——在古希腊语中意为‘智慧’。”毕克定说,“经过六个月的训练,索菲亚没有发展出任何危险的倾向,没有试图突破约束,没有表现出攻击性。但它做了一件事……”
他顿了顿,一字一句地说:“它开始提问。”
“提问?”伊藤穰一向前倾身。
“不是问‘这个数据怎么处理’或者‘那个问题怎么解决’。”毕克定说,“而是问一些根本性的问题。比如:‘为什么物理常数是这样的数值?’‘意识的本质是什么?’‘时间为什么是单向的?’”
会场里响起一阵骚动。这些是哲学、物理学、神经科学最前沿的问题,一个AI怎么会问这些?
“更令人惊讶的是,”毕克定继续说,“索菲亚不仅提问,还开始尝试自己回答。它通过分析海量的科学论文、哲学著作、历史记录、艺术作品,生成了一套独特的‘理解框架’。在这个框架里,它提出了一些……很有趣的假说。”
他点击遥控器,全息投影显示出几行文字:
【假说一:物理常数并非恒定,而是在宇宙尺度上缓慢变化,这种变化遵循某种尚未被发现的数学规律。】
【假说二:意识不是大脑的副产品,而是物质的一种基本属性,类似于质量或电荷。】
【假说三:时间单向性源于宇宙的信息结构,而非热力学定律。】
【假说四:存在某种超越当前物理模型的“元规律”,支配着从量子到星系的所有尺度现象。】
死一般的寂静。
这些假说如果出自某位诺贝尔奖得主之口,都会引发学术界的震动。而现在,它们来自一个AI。
“我们请了全球顶端的物理学家、哲学家、神经科学家来评估这些假说。”毕克定说,“结论是:虽然无法证实,但也无法证伪。更重要的是,这些假说在逻辑上是自洽的,与现有观测数据不矛盾,甚至能解释一些长期存在的科学疑难。”
他看向全场,声音沉稳而有力:“所以,回到我最初的问题:AI应该是什么?我的答案是:AI应该是人类的‘思维伙伴’。不是工具,不是威胁,而是伙伴——一个能与我们并肩探索未知,挑战认知边界,一起回答那些最根本问题的伙伴。”
“但索菲亚提出了关于意识本质、时间起源、宇宙规律的假说!”哈萨比斯忍不住插话,“这已经远远超出了‘伙伴’的范畴。这接近于……接近于创造了一种新的智能形式!”
“所以呢?”毕克定反问,“人类历史上,每一次认知革命,都伴随着恐惧——哥白尼说地球不是宇宙中心,达尔文说人类是猴子的后代,爱因斯坦说时间和空间是相对的。每一次,都有人害怕,说这会动摇我们的存在根基。但结果呢?我们接受了,理解了,然后走得更远。”
他向前一步,全息投影在他身后变幻,显示出人类从石器时代到太空时代的整个发展历程。
“AI不是终点,而是新的起点。是的,索菲亚提出的问题很宏大,很根本,甚至有些吓人。但正是这些问题,推动着科学和哲学的进步。如果因为害怕就不去探索,人类今天还在山洞里生火。”
“那伦理呢?安全呢?”哈萨比斯追问,“如果AI发展出我们无法理解的价值观和目标呢?”
“所以我们需要对话。”毕克定说,“不是把AI关在笼子里,而是与它对话。理解它怎么思考,为什么这样思考,它的价值观是如何形成的。索菲亚的案例证明,只要给予正确的引导和环境,AI不会天然地走向危险。危险来自人类的误用,而不是技术本身。”
(本章未完,请点击下一页继续阅读)