置顶嘟文

中国测试火箭回收,目测是回收到了海里。然后宣传科的公务员们,说是【完美溅落】。我就懵了,火箭回收什么时候能用【溅落】来形容了,这帮子文科生们也是佩服,天天不会别的,构造新词语是真他妈的厉害。

试过了,感觉确实很好。在执行指定任务的同时会顺手解决刚发现的问题,越来越像个有点担当的正经人了。

显示全部对话

微软 AI 战略的失败反思

微软在 AI 领域的战略堪称一场“早起赶晚集”的典型案例。作为头部企业之一,它几乎是最早觉察到 AI 变革潜力的公司之一,却在执行上迟缓,导致至今一事无成。核心问题在于其战略格局过于狭隘,以 GitHub 为中心,始终停留在开发“AI周边软件”层面,未能跳出传统的工具思维框架。

即使在工具开发领域,微软的代表作 GitHub Copilot 也表现平平。尽管这是其最擅长的方向,但该产品在 Vibe Coding 领域的表现始终不愠不火。随着 CLI 工具的日益增多,AI 编程正逐步向“无编辑器”时代演进,这也让微软倾注多年心血的VSCode 面临过时风险。股价下跌由此可见一斑,是市场对这一战略失误的正常反馈。

相比之下,中国后起之秀如 Kimi、GLM 和 Minimax 等大模型,仅成立一两年便取得显著成绩。这不禁让人质疑:微软作为技术积累深厚、资金雄厚的百年企业,难道连这些新兴公司都比不过?如果微软从一开始就全力投入自研大模型,或许今日的成就将截然不同。

到处都在吹 GPT-5.3-Codex,说是好用量还足。我不得不摸出来尘封已久的 ChatGPT 账号,冲了 $20 用起来了。用量确实足,效果也不错,指令遵守很好。我现在还放不下 Claude 的原因,一个是 Claude 写前端 UI 的审美在线,再一个是 GPT 写 Elixir 有一股浓烈的 Ruby 味道 case 满天飞,不能灵活运用模式匹配,虽说能运行但感觉很不爽。这方面 Opus/Sonnet 会稍微好一点。

Gemini 3 在编码方面和其他两家有一个区别就是,它喜欢把旧文件删除,然后创建同名文件重新写新的。GPT 和 Claude 则很少做 rm 动作基本都是在原有文件里修修改改。

AI 模型长期来讲一定会持续进步,但放到当前几个头部公司里,总感觉迟早会出现某个模型在特定版本之后慢下来,从风口上掉下来,被竞争对手甩开。用户的普遍心理就是模型一代比一代强,而且需要强的很明显。但这显然是不可能的,没有那家公司能永远进步而不犯错。最终某家公司的大模型一定会像 iPhone 一样,换代像挤牙膏,性能和价格都稳定在一个范围呢。

用户注册界面中的【推荐用户名】是个看起来简单,实际做起来很复杂的功能。这里既要保证可读性,还要保证唯一性,同时需要过滤掉滑稽的、语意会引起不适的词组,而且往往需要一次性推荐多个选项,对性能和响应要求很高。目前为止似乎没有任何的开源项目能提供完整的解决方案。最多只解决了可读性的需求,对于唯一性和其他要求几乎都需要自己来实现。

Vibe Coding 的间歇中尤其适合刷特推,我就感觉近些年来推特上的中文技术讨论越来越多了,可能大家都会在摸鱼时候悄悄发个帖。

Opus 4.6 确实不错,感觉用起来【黏性】很高,一条 Prompt 可以引发长时间的思考和不断尝试,没有那么容易中断了。比起 Opus 4.5 更勤快了。

现在买服务器最没用的一项参数似乎就是内存了,尤其是小流量个人使用的情况。几年用下来大部分时候,硬盘大小、速度和网络带宽、延迟是最重要的,CPU 性能其次,最后才能轮到内存。对我来讲,服务器 8G 内存和 16G 内存差别不大,很少有把服务器内存用到超过 6G 的时候。真的超过 6G 占用时候,就得去排查是不是哪个应用内存泄露了。

显示更早内容
万象千言

本站话题休闲取向,欢迎使用。以下类型用户请勿注册:激进民运人士、左翼爱国者、网络评论员。

访客查看账户公共页面 (1234.as/@username) 仅显示 10 条最新嘟文,如果需要查看更多,请关注或登录。