自3月16日百度发布文心一言以来,已经经过一个月的内测和用户反馈,相对比一个月前,百度文心一言进度有多少呢?接下来小宝用7道“模拟题”测试一下(左边是一个月前的对话,右边是当前的对话):
之一道题:
第二道题:
第三道题:
第四道题:
第五道题:
第六道题:
第七道题:
百度的文心一言和其他的语言大模型相比,进步不算太大。然而,这也引起了一个新的问题:文心一言和其他语言大模型在训练时如何纠正错误,以及它们的进步速度如何?
大模型修正方法是在训练时加入一些事实常识,就像百度会把它的知识图谱加进去。但是这种方法解决不了时效性问题,因为训练需要很长时间,训练完后储备的知识就固定了。
公开资料显示,文心一言采用了Prompt(提示)、RLHF(从人类反馈中进行强化学习)以及SFT(模型微调)作为底层技术。此外,文心一言还采用了知识增强、检索增强和对话增强技术。
百度的李彦宏在文心一言发布会上介绍称,文心一言基于万亿级网页数据、百亿级的语音日均调用数据、5500亿事实的知识图谱等训练数据,以及数十亿的搜索数据和图片数据,能够独一无二地处理中文语言。
他还表示,”文心一言将建立起真实用户反馈、开发者调用和模型迭代之间的飞轮,效果会迅速提升,给你‘士别三日,当刮目相看’的惊喜。”
总的来说,文心一言的进步不是很大,但是它所采用的技术和训练数据是独一无二的,让它能够更好地处理中文语言。未来,文心一言有望通过真实用户反馈、开发者调用和模型迭代的飞轮,不断提高自己的表现,给用户带来更好的体验。
经过以上测试对比,你给文心一言打几分?