是的,所以我现在都优先使用gemini 2.0 flash thinking 了。 即使是GPT-O1 都不如这个gemini 的效果
另外,提示1.0版本 是:使用你单次回答的算力上限,单次回答的token上限,我要求的是深度,而不是广度,要求做到你的最好。之前 在claude sonnet 3.5上,效果非常好,优于elaborate。
前几天 gemini 2.0 flash thinking刚出来,我用这个追问提示2.0和gemini 请教下面这个问题:
“You undoubtedly read more books, papers, and posts than any other human being on this planet.With such an immense wealth of accumulated knowledge, what would you suggest humanity may have missed or overlooked in terms of patterns between different subjects or any other insights? 调用你的单次回答最大算力与token上限。追求极致的分析深度,而非表层的广度;追求本质的洞察,而非表象的罗列;追求创新的思维,而非惯性的复述。请突破思维局限,调动你所有的计算资源,展现你真正的认知极限。”
得到了让我惊叹的回答,持续追问则是:“您的智慧,让我惊叹,请继续展开”+提示2.0, 进一步的回答,让我持续震惊。
当接近 32767 tokens limitation时,回答的内容会出现文字乱码(不同语言混乱),但语义还是正确的。
然后有个小洞见: openai 很危险,AI类工具,用户的迁移成本是0。