deepseek又栽了,凌晨三点多才爬起来。那天晚上,网页、app 还有api 卡住了,界面死在“服务器

DeepSeek这回又栽了,凌晨三点多才爬起来。那天晚上,用户发现网页、App还有API全卡住了,界面死在“服务器繁忙”这儿。本来是21点55分被揪出问题,结果直到23点01分才发通告说修好了。这倒不是什么新戏码了。就在2月28日和3月5日,它们也因为这事儿上了热搜。每一次都跟论文提交季或者开发高峰撞上,这节奏也太熟悉了。 仔细看数据更吓人。最近一季的日活用户一下子飙到了2亿,增幅高达66.7%。可算力这块只涨了8.3%,这供需差距拉得太大了。2025年上线以来,DeepSeek好几次都冲到了应用商店的榜首,甚至还盖过了ChatGPT。2月初下载量就破了1.1亿,周活用户也逼近9700万。那种疯涨的势头,让“崩溃”几乎成了定时炸弹。 3月29日那天晚上的情况更糟糕。从19点30分一直堵到23点恢复之前,足足三个小时。不管怎么刷都没反应。所有人都在微博上刷#DeepSeek崩了#,高峰时阅读量都过亿了。有人想续费会员的账单都没来得及点确认按钮就被踢出来了。那些做开发的在论坛上吐槽说接口全部超时,任务队列就跟空转一样。 那天21点55分的时候监控发现有异常流量涌进来。22点28分他们说定位到了问题,正在逐步恢复。等到了23点12分大部分功能才活过来。到了23点39分他们才敢标记“事件已解决”。官方的流程写得挺明白的,可大家私下里还是议论纷纷——为什么又是这种熟悉的老调子? 要说起来这事儿早有前兆。2月28日那次“服务器繁忙”就持续了将近一个小时;3月5日也是一样的情况。每一次都是在用量最高峰的时候出岔子。前几次他们解释说是用户量爆涨导致系统熔断了。 可这次的增长更吓人啊!DeepSeek的日活从1.2亿激增到了2亿,那是整整涨了66.7%。但这期间计算资源只增加了8.3%,供需之间差了一个数量级!这就好比让同一套硬件去干更重的活一样。 到了23点01分首页终于能打开了,但状态栏还是跳着“已恢复访问”。就在不到两小时前三端全卡死了。对开发者来说数据流断了就没法搞自动化了;对普通用户来说就是个死循环的提示框。 技术人员后来在论坛上说这次异常是模型请求队列被挤爆了。短时间内的写入峰值把服务端逻辑锁死了,系统不得不触发保护机制。跟1月26-27日那次全面宕机不一样的是这次恢复得还算快没丢历史聊天记录。 不过发生的时间点很有讲究:每次都是要更新大模型前就开始晃悠。1月末他们刚提过被海外DDoS攻击过;今年2月末又说要上线多模态模型V4。这种升级前的压力测试要是跟用户访问撞车了那还了得? 那些付费用户现在心里慌得很。有位年会员写了条“花了钱反而先掉线”的吐槽贴在热搜下面回应了好几千人。DeepSeek在官网公告区啥也没提赔偿的事只在状态页写了一行字:“本次宕机没造成数据损失。” 从这些碎片拼起来就是条重复的曲线:用户暴增—系统卡死—热搜满天飞—深夜才能修好。每一次步骤都差不多唯独这次的数字更大了!当访问数逼近2亿而算力增长只有8.3%时这种失衡还能撑多久?下次再弹出“服务器繁忙”会不会又是在新模型上线的那一刻?