site stats
超长上下文 LLM 与 RAG 技术,在文档问答场景下谁更强?我动手做了一个对比实验结论:大模型长上下文对 RAG 技术就是降维打击。不期望大模型都达到 200K、2M 这种级别的上下文长度,但至少应该达到 32K、64K 的长度且保证模型质量不下降。长上下文可以极大的简化 RAG…
发布时间:
1
数据加载中
Markdown支持
评论加载中...
您可能感兴趣的: 更多