昨晚百度扛住了春晚的流量,这很厉害。

有人把百度昨天的活动和支付宝集五福与微信红包相提并论,显然BAT名副其实。

你可以离开头条新闻与小视频,但始终离不开搜索、社交和电商。

元旦罗振宇做跨年演讲就说过春晚的流量很牛,要在春晚广告不是钱到位就行,你服务器不能崩啊。

于是阿里巴巴在春晚打广告,但让人没想到的是阿里巴巴的服务器也不够看。

不过当一部分互联网人在讨论百度没崩时,程序员却对另一点更感兴趣,那就是架构!

有人说自己要问个弱智问题,那就是百度抢红包活动的架构是啥?

是基于C++,还是基于JAVA?

有PHP大神猜:主会场,鸟哥的yaf框架,php+hhvm业务层,底层c++,数据都是内存。

大前端流量调度golang,视频图片存储bos系统走cdn,全国异地多活。

今天活动成功是百度几万研发一起的心血,是所有业务线共同努力的结果。

还有一位喜欢打王者荣耀的程序员要猜一下,他猜是泳道+redis异步到mysql再异步到redis。

一套可以支撑3-5wqps,采用用户泳道可以部署多套。

按照百度的体系接入bfe的概率较大,但是不排除直接使用nginx+lua作为网关,业务层使用php这种可能。

一位美团的员工有些不屑:还用重心在数据中心这层做?

边缘计算就可以啊。

各地cdn函数式计算,后面与数据中心交换数据,能挡住大部分流量。

数据中心无非流量网关入口,后面跟业务网关分流,分层横向堆机器就可以。

虽然有网友感到不明觉厉,但有阿里巴巴的员工却觉得红包这种东西其实没必要mysql,全部redis最好。

而有百度的员工表示:最基础的实现无非就是队列内存。

其实这个也没多高深的,大家都会。

但是在架构上就不一样了,除了bfe接入,后端有用lua、go、c++、php分层很多。

最后一位疑似参加这场红包架构的百度员工给出了答案,称流量分发golang,业务php。

元旦后公司通知做这个,pm开发一脸懵逼然后硬上,加班三周每天至少12点,终于搞定了。

其中需求不停变换,开发不停重写,测试不停重测……真的只有三周,我都佩服我怎么熬过来的,代码改了15版!!!