昨天的一篇论文《Dissecting In-Context Learning of Translations in GPTs | 深入分析 GPTs 在机器翻译中的上下文学习》主要提供了两个有价值的信息:
1. 使用LLM(大语言模型)翻译时,上下文对翻译质量影响很大。
这其中,要翻译的原始内容对于翻译结果影响没有那么大,哪怕你调整输入内容的语序,也能得到差不多的结果。
但是当你用few-shot(少量样例),用来作为参考翻译样例对最终翻译结果影响很大。
2. Zero-Shot-Context,零样例,自动从LLM中获取可以学习的上下文,并借助LLM提供的上下文来翻译,可以大幅提升翻译质量。
这里不太好理解,但是如果你看过我以前写过的《一个简单的Prompt大幅提升ChatGPT翻译质量,告别“机翻感”》https://t.co/wqvTGt04hW 你就好理解了,也就是将翻译过程分成两步:
1. 先用目标语言对要翻译的内容进行解释
2. 然后将解释的内容和原文一起作为上下文,基于原文和解释一起来翻译,就能得到更好的翻译结果
论文原文:https://t.co/lmxyH7Knam
中文翻译:https://t.co/fgYBJG7HPt
点击图片查看原图