Page 6 - 金融科技视界2023-6期-如期而至 精彩继续!
P. 6
High-end Perspective
高端视点
BERT模型的技术也值得我们关注。 比有差距但不大,而以GPU和NPU为主的智能算力
评价大模型水平应该是多维度的,全 规模中,中国明显高于美国(按2021年年底数据,美
面性、合理性、使用便捷性、响应速 国智算规模占全球智算总规模15%,中国占26%),我
度、成本、能效等,笼统地说目前我 国不仅是大型互联网企业具有相当规模的算力,国家
国大模型开发与国外的差距为1—2 实验室和一些城市政府支持的实验室也有大规模的
年的依据还不清楚,现在下这一结论 算力资源,可以说在训练大模型所需算力支持方面中
意义也不大。 国也能做到。据了解,鹏城实验室正在设计鹏城云脑
中国企业在获得中文语料和对 Ⅲ,算力达到16EFlops,比GPT-3所用算力高3倍,
中国文化的理解方面比外国企业有 预计耗资60亿元,将为人工智能训练持续提供强有
天然的优势,中国制造业门类最全, 力的算力支持。
具有面向实体产业训练产业AIGC
的有利条件,在算力方面中国已具
有较好的基础。据OpenAI报告, 中国AIGC研发:需认清差距
训 练 GP T3 模 型 所需的 算力高达 重视挑战 实在创新
3.64EFlops/天,相当于3—4个鹏城
云脑Ⅱ(鹏城云脑Ⅱ为1Eflops,即每 Q:除了我们在算力方面有较好的基础之外,您认
秒百亿亿次浮点计算)。按2022年年 为在中国做大模型还面临哪些挑战?
底的数据,美国占全球算力36%,中 邬贺铨:仅有算力还是不够的,在以下几方面我
国占31%,现有算力总规模与美国相 们还面临不少挑战:首先,大模型的基础是深度学习
框架,美国的Tensorflow和PyTorch已经深耕深度
学习框架生态多年,虽然国内企业也自主开发了深度
学习框架,但市场考验还不够,生态还有待打造。
其次,将AIGC扩展到产业应用可能需要不止一
个大模型,如何将多个大模型高效地整合,有标准化
和数据融合的挑战。
第三,大模型需要海量数据训练,中国有数千年
的文明,但丰富的文化沉淀绝大多数并未数字化,中
文在ChatGPT训练所用到的语料中还不到0.1%。虽
然我国互联网企业拥有大量电商、社交、搜索等网络
数据,但各自的数据类型不够全面,网上知识的可信
性又缺乏严格保证,中文可供训练的语料还需要做大
量的挖掘工作。
第四,大模型训练所依赖的GPU芯片以英伟达公
司的A100芯片为代表,但该芯片已被美国限制向中
国出口,国产GPU的性能还有待进一步考验,目前在
04 金融科技视界