没想到我这快 10 年的 1080 Ti 机器还能在本地流畅运行 qwen3.5:9b,这个模型甚至有视觉功能,传了一张图能清晰的把里边的内容识别出来。这样子能无限 Token 的话,似乎又开启了许多新的用法,开始对本地运行模型有了兴趣……
@super 哈哈,真的我也试过,看到整整一屏的but ,wait感到无语。忍不住骂它 这点小任务都做不好,怎么把大任务交给你😂
@ToT 这个模型好像特别为写代码优化的,我试着让它写个小程序反而相对顺利,没有太长时间的思考。但是做其他任务,让它做翻译,就直接陷入了无尽的 thinking,甚至循环思考出不来了。
@super 原来起这样啊
@ToT 我觉得这个模型最有意义的场景就是本地视觉识别,比起调用商业 API 真的能省很多钱,速度也不慢,效果也很好。
对这个小模型的能力表示惊讶,我让它用 Ruby 写一个获取天气的小程序,结果它一口气输出了整套 Sinatra 项目代码。这是奔着和 Open Code 配合使用的节奏呀,已经不单单是个聊天取向的模型了。