最新AI生成文本技术GPT-4升级程度?专家:超级多语言的口译员

OPEN AI正式推出GPT-4,通过大量资料训练,改善原本GPT-3的问题,并产生更多创造力,不仅可以解读图片,回答也变得更精准,但仍有不少人对使用AI语言模型有许多顾虑,台湾科技媒体中心邀请专家说明,ChatGPT就是一个会超级多语言的口译员。

GPT-4仍有一定模型偏见

中央大学资讯电机学院资讯工程学系教授蔡宗翰表示,GPT-4通过学习大量的文本和图像资料,获得更高的创造力和想象力,能生成更有趣和独特的文本和图像描述,并具备解读图片的能力,可以从图像中发掘关键资讯,生成相关的文本描述。

蔡宗翰提醒,GPT-4在生成文本时可能会编造非事实性的回答,而这可能会对用户造成误导和负面影响,所以可以考虑引入更多的事实验证机制和检查机制,同时需要给予模型更加高品质的训练资料。

蔡宗翰认为,语言模型的训练资料可能存在一定的模型偏见,例如性别、种族、文化背景等方面的偏见,为了解决这个问题,需要更加细致的调整和训练模型,同时更加严格的审查和检查模型的输出结果。

GPT-4是一个会超级多语言的口译员

政治大学传播学院助理教授李怡志说明,一般人因为先会使用Google才会使用ChatGPT,所以常以Google的概念来看ChatGPT,Google是一个人信息料索引目录,当你输入关键字,索引目录协助你找到资料。

李怡志表示,ChatGPT是学习资料后创建模型,当你输入提示,ChatGPT会解读你的提示之后,给你GPT学会的东西,若将这两个角色拟人化后,Google是一个图书馆员,它不会告诉你任何东西,只会帮你找东西,而ChatGPT是一个会超级多语言的口译员,它不会帮你找东西,但是很爱帮你“翻译”或“转译”,并乐于自己补充,简单来说,前者是用“查”,后者用“翻译”。

李怡志建议,使用ChatGPT比较好的方式是让它好好地“翻译”,让它提供开放型的内容,也就是说,如果内容有明确的“是非对错”,最好不要完全依赖它,但如果答案只有“好坏高下”,那么可以开始练习如何使用它。

李怡志说明,如果看到一篇文章,已经注明利用ChatGPT或人工智能工具完成或协作,那就要假设里面的事许可能有错、会脑补,但假如没有注明,那就跟平常看到任何文章一样,随时保持注意,保持怀疑,若对内容有任何疑虑,就回头求助图书馆员。

GPT-4文本处理效率更好

政治大学应用数学系副教授兼学务长蔡炎龙表示,GPT-4比GPT-3更优秀的是能一次看超过25,000个字,这比GPT-3大约只能看2,048个字好非常多,这也是为什么长一点的文章,要GPT-3作摘要就无法做得那么好。

蔡炎龙指出,GPT-4的限制,最主要来自它其实只是“用前一个字预测下一个字”的模型,只是依过去训练的经验,觉得放哪个字合理,不是真的基于事实,但GPT-4的重点不是它还能更强,而是现在就可以怎么使用它。

蔡炎龙引用Microsoft首席执行官纳德拉(Satya Nadella)说明,要让GPT-4产生有用、正确的东西是用户的责任,而文本生成模型并不是有意识的提供不正确的资讯,所以刻意要造假消息的,用GPT-4不一定能更快速造出一个人要的假消息。

蔡炎龙强调,这说不定反而会让大家更认为,坚持把关文本的媒体、出版社,或是知名人物才是值得信赖的。相反的,照片、视频和声音,反而不会再被大家认为是“有图有真相”,未来可能要即早思考如何应对。

GPT-4错误仍高须识别

师范大学图书资讯学研究所特聘教授曾元显说明,GPT-3.5、GPT-4是进一步用人类导师的引导以及强化学习的方式加以训练,抑制较差的输出、奖励较好的回应,所以误导、偏见的资讯并没有从ChatGPT、GPT-4中删除,只是被抑制,但仍然可能由某种提示被引导出来。

曾元显表示,GPT-4的限制跟前一代一样,仍旧会有无中生有、推理错误、各种偏见(如性别、种族、职业等偏见)、不理解训练资料之后发生的事物,因为训练资料只到2021年9月的网络资料,因此使用仍须小心,必须尽力求证,但GPT-4回应出事实的能力仍比前一代高出40%。

曾元显补充,其实最近有些研究可降低GPT-4对社会的负面冲击,某种程度上可以侦测AI生成的文句、协助侦测GPT生成的文本,以及协助辨别是否有错用AI文本而有欺骗、造假、不公平的情事等。

(首图来源:Unsplash)