Page 6 - 金融科技视界2023-6期-如期而至 精彩继续!
P. 6

High-end Perspective
              高端视点








            BERT模型的技术也值得我们关注。                                   比有差距但不大,而以GPU和NPU为主的智能算力
            评价大模型水平应该是多维度的,全                                    规模中,中国明显高于美国(按2021年年底数据,美

            面性、合理性、使用便捷性、响应速                                    国智算规模占全球智算总规模15%,中国占26%),我
            度、成本、能效等,笼统地说目前我                                    国不仅是大型互联网企业具有相当规模的算力,国家
            国大模型开发与国外的差距为1—2                                    实验室和一些城市政府支持的实验室也有大规模的

            年的依据还不清楚,现在下这一结论                                    算力资源,可以说在训练大模型所需算力支持方面中
            意义也不大。                                              国也能做到。据了解,鹏城实验室正在设计鹏城云脑
                中国企业在获得中文语料和对                                   Ⅲ,算力达到16EFlops,比GPT-3所用算力高3倍,
            中国文化的理解方面比外国企业有                                     预计耗资60亿元,将为人工智能训练持续提供强有
            天然的优势,中国制造业门类最全,                                    力的算力支持。

            具有面向实体产业训练产业AIGC
            的有利条件,在算力方面中国已具
            有较好的基础。据OpenAI报告,                                            中国AIGC研发:需认清差距

            训 练 GP T3  模 型 所需的 算力高达                                          重视挑战 实在创新
            3.64EFlops/天,相当于3—4个鹏城
            云脑Ⅱ(鹏城云脑Ⅱ为1Eflops,即每                                    Q:除了我们在算力方面有较好的基础之外,您认
            秒百亿亿次浮点计算)。按2022年年                                  为在中国做大模型还面临哪些挑战?
            底的数据,美国占全球算力36%,中                                       邬贺铨:仅有算力还是不够的,在以下几方面我

            国占31%,现有算力总规模与美国相                                   们还面临不少挑战:首先,大模型的基础是深度学习
                                                                框架,美国的Tensorflow和PyTorch已经深耕深度
                                                                学习框架生态多年,虽然国内企业也自主开发了深度

                                                                学习框架,但市场考验还不够,生态还有待打造。
                                                                    其次,将AIGC扩展到产业应用可能需要不止一
                                                                个大模型,如何将多个大模型高效地整合,有标准化
                                                                和数据融合的挑战。
                                                                    第三,大模型需要海量数据训练,中国有数千年

                                                                的文明,但丰富的文化沉淀绝大多数并未数字化,中
                                                                文在ChatGPT训练所用到的语料中还不到0.1%。虽
                                                                然我国互联网企业拥有大量电商、社交、搜索等网络

                                                                数据,但各自的数据类型不够全面,网上知识的可信
                                                                性又缺乏严格保证,中文可供训练的语料还需要做大
                                                                量的挖掘工作。
                                                                    第四,大模型训练所依赖的GPU芯片以英伟达公
                                                                司的A100芯片为代表,但该芯片已被美国限制向中

                                                                国出口,国产GPU的性能还有待进一步考验,目前在

            04  金融科技视界
   1   2   3   4   5   6   7   8   9   10   11