site stats
苹果发布 FastVLM能在 iPhone 上直接运行的极速视觉语言模型首 token 输出快 85 倍FastVLM:先把图像看懂(图像 → token),再根据 token 生成回答或描述(token → 语言)模型体非常积小,可以很轻松部署在 iPhone、iPad、Mac 上FastVLM-0.5B:相较于 LLaVA-OneVision-0.5B, 首 token
发布时间:
1
数据加载中
Markdown支持
评论加载中...
您可能感兴趣的: 更多