亚马逊人工智能研究人员:训练大型语言模型 (LLM) 时,数据质量和来源考量的重要性

亚马逊云计算人工智能实验室的研究人员发现,网络上大量内容来自机器翻译 (MT) 生成,这些跨越多种语言的翻译内容质量普遍较低。研究团队强调,这凸显了在训练大型语言模型 (LLM) 时,数据质量和来源考量的重要性。

图源 Pexels

图源 Pexels

研究还发现,机器生成内容在资源较少语言的翻译中很普遍,并占网络内容的很大一部分。

研究团队开发了名为多维 cc 矩阵 (MWccMatrix) 的庞大资源,以更好地理解机器翻译内容的特征。该资源包含 90 种语言中 64 亿个独特的句子,并包括翻译元组,即相互翻译的一组句子。

这项研究发现大量网络内容通常被翻译成多种语言,主要通过机器翻译完成。这种内容不仅在资源较少语言的翻译中普遍存在,而且在这些语言的所有网络内容中也占很大一部分。

研究人员还注意到,出于广告收入等目的,被翻译成多种语言的内容存在选择性偏差。

论文的结论是:“机器翻译技术在过去十年里取得了显著进步,但仍达不到人类质量水平。多年来,使用当时可用的机器翻译系统将机器翻译内容添加到网络上,因此网络上大部分机器翻译内容按照现代标准可能质量很低。这可能会导致 LLM 模型产生更多‘幻觉’ ,而选择偏差表明即使不考虑机器翻译错误,数据质量也可能较低。数据质量对于 LLM 训练至关重要,其中高质量的语料库,如书籍和维基百科文章,通常会进行多次向上采样。”

转载请注明出处华人站华人新闻,华人中文网 » 亚马逊人工智能研究人员:训练大型语言模型 (LLM) 时,数据质量和来源考量的重要性

条留言  
给我留言