没想到我这快 10 年的 1080 Ti 机器还能在本地流畅运行 qwen3.5:9b,这个模型甚至有视觉功能,传了一张图能清晰的把里边的内容识别出来。这样子能无限 Token 的话,似乎又开启了许多新的用法,开始对本地运行模型有了兴趣……
对这个小模型的能力表示惊讶,我让它用 Ruby 写一个获取天气的小程序,结果它一口气输出了整套 Sinatra 项目代码。这是奔着和 Open Code 配合使用的节奏呀,已经不单单是个聊天取向的模型了。
这个模型的主要问题是过度思考,大多数时候无用的思考太久,输出太慢。比如让它翻译一段文字,它会逐字逐句分析是什么意思,然后分析原语句中的逻辑和错误,最后才给出翻译。思考过程会不断反思之前翻译是否正确,不断去修改调整。一点点小任务做成了没完没了的大项目。
@super 哈哈,真的我也试过,看到整整一屏的but ,wait感到无语。忍不住骂它 这点小任务都做不好,怎么把大任务交给你😂
@ToT 我觉得这个模型最有意义的场景就是本地视觉识别,比起调用商业 API 真的能省很多钱,速度也不慢,效果也很好。
本站话题休闲取向,欢迎使用。以下类型用户请勿注册:激进民运人士、左翼爱国者、网络评论员。 访客查看账户公共页面 (1234.as/@username) 仅显示 10 条最新嘟文,如果需要查看更多,请关注或登录。