site stats
兄弟们 这个牛P了2800 tokens/s 啊😂全球最快推理速度模型 不要眨眼↓ChatDLM:全球首个扩散语言模型 (DLM) 即将开源ChatDLM深度融合了 Block Diffusion 和 Mixture-of-Experts (MoE) 架构,实现了全球最快的推理速度。同时支持131,072 tokens的超长上下文
发布时间:
1
数据加载中
Markdown支持
评论加载中...
您可能感兴趣的: 更多