Page 13 - 金融科技视界2023-6期-如期而至 精彩继续!
P. 13

High-end Perspective
                                                                                                  高端视点








            探索有益的AI技术吗?正如你所说,                                   定的方向,我们甚至没有意识到它正在改变公众的情
            目前我们真的只是在实验阶段,不确                                    绪,改变我们对他人、对未来的看法。这对我们来说是

            定前面会出现什么巨大的困难。                                      非常危险的。所以我不同意以下这种观点,即我们了解
                                                                AI安全的唯一方法是在现实世界中部署数亿个系统的
                Stuart Russell:我认为仍然有                           副本,然后看看会发生什么。我们不会对疫苗生产这么

            很长的路要走,了解如何制作AI系统,                                  做,在使用疫苗前要严格测试以确保安全性,因为我们
            解决大规模“辅助博弈”问题,以及                                    要把它注射到数亿人的体内。在AI社区,我们真的需
            如何确保人类可以使用它们。K. Eric                                要以一种完全不同的心态来思考我们正在做的事情。
            Drexler作为纳米技术的发起者之一,
            在过去的几年里一直致力于AI安全方                                                       03

            面的研究。他也提出了类似的方式去
            建立任务白名单,称之为综合AI服务。                                            势不可挡,人类如何管控AI
            他的观点是,与其构建AGI,不如构建

            解决特定问题的AI系统,比如蛋白质                                       姚期智:从更乐观的角度来看,即使大型AI系统
            折叠、交通预测或其他任何问题。这些                                   可能是一个我们无法控制的怪物,但我们有办法通过
            系统根本没有机构或行动范围,这可                                    适当的协议来“驯服”它们。就像量子计算,我认为
            能不会带来大规模的风险。我认为在                                    在AI领域,类似的协议可能在未来几年内很快问世。
            短期内这是一个非常合理的方法。                                     理论学家们已经发现有很多方法可以控制量子系统。

                                                                有趣的是,量子机器可以在一个非常不同的空间里工
                Sam Altman 谈到了AI系统试                             作。目前人类并不能凭直觉很好地处理它。这与医学
            图优化农业,却犯了导致生态灾难的                                    非常相似,我们可能不完全了解药物是如何在分子层

            错误。如果AI系统能与数亿人交谈,                                   面起作用的,但是我们可以进行一些测试。
            并说服这数亿人对其他国家不那么友
            好,也能说服人们不那么关心气候变                                        你提到的这类事情给了我们希望,即使人类是一
            化。这样我们可能会被带入一场核战                                    个非常弱小的种族,我们仍也许能够控制宇宙中不存
            争或一场气候灾难,而没有意识到这                                    在的东西。也许通过遵循你的建议,我们会看到这一

            是AI系统造成的。这可以简单地通过                                   领域的一些希望,能够真正使AI系统成为我们的仆
            对话,从系统中发生,有一些我们无法                                   人,我不知道这样的说法是否恰当。
            检测到的内在目标,导致它把我们推

            向这个方向。                                                  Stuart Russell:我认为将会有一种类似管控核
                                                                武器的管控方式来管控AI技术。如果一群人获得了
                所以我认为目前已经发布的系统                                  核武器,他们可以威胁整个世界,并勒索我们实现他
            存在巨大的风险,人们已经非常担心故                                   们的目标。如果这项技术比核武器更强大,我们可能
            意滥用虚假信息的问题。这类系统像社                                   需要以类似的方式来管控。但我认为现在需要更好地

            交媒体算法一样,会把我们推向一个特                                   管控核武器。

                                                                                        2023.6  金融科技视界     11
   8   9   10   11   12   13   14   15   16   17   18