Page 10 - 金融科技视界2023-6期-如期而至 精彩继续!
P. 10

High-end Perspective
              高端视点








                          01                                       Stuart Russell:我赞同你的说法。事实上,我们



             如何设计对人类有益的AI,可以借                                  很难明确表达我们的目标。比如,虽然现在我们可以使
                      鉴「墨子思想」                                  用强化学习来训练,但是我们仍未表达出我们的目标。
                                                               因此,模型也并没有学到何为目标。人类对未来有以下

                姚期智:你提出让通用人工智能                                 简单的偏好,假设有两部风格不同的电影A和B,人类
            (Artificial General Intelligence,                  可能会有明显的偏向性,更喜欢A或者更喜欢B。人类
            AGI)更加安全的建议,如何实现这个                                 会对未来有一个隐性的选择偏好,有着自己的计算和
            想法?人和机器是不同物种,除非我们                                  内省能力。
            对自己非常了解,否则很难把控人机互

            动。而人类的想法不尽相同,如何防止                                      事实上,我们在事件发生前就做好决定,或者有
            人类制造过于强大的机器?我们是否该                                  潜力去这样做。那么我们需要面对的问题是,机器是为
            为了个人利益而牺牲其他人的利益?                                   单独的个体工作还是为了全人类而工作。我们可以从

                                                               最简单的博弈游戏假设开始,只有一个人和一台机器,
                机器可能试图改变人类的行为。                                 进一步如果是一个人和多台机器,如何确保在帮助人
            如何协调人类的思想?我们想要什么?                                  类的同时,不同机器之间相互协作?如果是多个人和一
            理想的世界应该是怎样的?我们并不一                                  台或多台机器,这需要引出道德哲学中的基本问题。
            定有好好思考过这个问题。实际上,机

            器就像是无害的物种,只要人类提出要                                      我们需要设计为全人类工作的 AI 系统。试想,如
            求,机器可以做任何事,因此最重要的                                  果一个AI系统能够响应个人意愿,那么AI系统在追求
            是要明确人类的需求是什么。                                      个人的利益时伤害他人利益,因为它的关注点只在个人

                                                               利益而非其他人的利益。所以,我认为设计好的AI系
                                                               统是默认为全人类而工作的。除非他们在做一些不会
                                                               影响他人利益的行为,比如在我的花园里割草,因为这
                                                               是我要求AI系统这么做的。但是如果是在报纸上刊登
                                                               一篇文章,这样可能会影响其他人的利益。这时AI系

                                                               统需要考虑到每一个利益可能受到影响的人。


                                                                   这就回到了一个几千年来道德哲学家们遗留下来

                                                               的问题:早在中国公元前500年,春秋战国时期的墨子
                                                               就在讨论Universal Love(兼爱)的概念,意思是在做
                                                               一个道德决定时应该考虑到每个人的利益,每个人的
                                                               偏好都应该被平等的看待。这在18世纪西方哲学的功
                                                               利主义中再次出现。我相信有一种方法是建立在所谓

                                                               的偏好功利主义的复杂形式之上的,它可以合理地考

            08  金融科技视界
   5   6   7   8   9   10   11   12   13   14   15