机器之心编辑部前几天,OpenAI 正式发布了全新的大模型 GPT-5.4-Cyber。和很多网友的感受一样,这个模型也给我们带来了一种极其强烈的既视感。这款新模型在目标用户群、应用场景甚至宣发策略上,几乎完全对标了 Anthropic 前些天发布的 ...
而整个测试,我全都是让 Claude Code(Opus 4.7)自己完成的:让它自己设计测试方案,自己写 prompt,分别使用 GLM 5.1 和 DeepSeek V4 Pro 跑同样的任务,最后自己评判结果。
天下苦 Anthropic 久矣。 就在今天,Anthropic 一度偷偷地将 Claude Code 从 Pro 套餐页面移除,引发开发者广泛不满。数小时后,官网页面回滚,负责人称本次仅为小范围测试。但本次事件传递出的信号十分明确:高消耗的 AI ...
一位韩国开发者Sigrid Jin迅速对其进行了重写,他去年累计消耗250亿个Claude Code token,是全球最活跃的Claude用户之一,此前曾被《华尔街日报》报道。 据他本人在claw-code的readme中写到,他凌晨被消息惊醒,女朋友担心持有Claude源码会惹上官司,于是他用Python重写了一套功能类似的系统,命名为“claw-code”推上GitHub。
两天过去,Claude Code源码克隆项目不仅健在,还成了史上最快10万星项目。 太恐怖了,揽星速度比之前的OpenClaw还要猛,火到连作者的妈妈都出来喊话,催他赶紧去申请吉尼斯世界纪录。
不幸的是,使用上下文是有细微代价的,这通常被称为上下文腐化。上下文腐化是指这样一种观察:随着上下文的增长,模型性能会下降,因为注意力被分散到了更多的 token 上,且陈旧、无关的内容开始干扰当前任务。对于我们的 100 万上下文模型,我们观察到在 ...
2024年1月,Google工程师公开表示Claude Code在一小时内完成了其团队一年的工作。数据显示Claude Code占据41%开发者市场份额,年收入25亿美元,而Google的Antigravity等产品表现不佳。
Kimi 发布并开源 K2.6 模型,称Kimi 迄今最强的代码模型,kimi,代码,agent,编程 ...