第一百二十三章 系统改造与技术升级(1/1)
正所谓,工欲善其事,必先利其器。
所有业务前端的产品和服务,甚至市场营销活动。
都需要依靠后端的系统和技术支撑,这也是互联网公司的核心竞争力。
尤其是在现在易趣的业务线已经非常多。
各种不同的业务类型,对后台技术的需求也越来越复杂的前提下。
打造一个能够为前方一线提供足够支撑和良好用户体验的后台系统,
就成为新成立的“大中台”事业群的核心工作目标。
可这并不容易……
就拿电商平台来看:
易趣公司早期的后台系统,是由庞勇一个人写的b2c)。
在e server。
而新成立的淘宝网,则采用了最新的linux++php的架构。
之所以采用这个架构,是因为一方面用到的技术是开源、免费的,而且无需编译,发布快速。
这样一来,光是要将电商平台在后台系统做整合,就需要对整个系统架构进行重新升级……
更不用说,还要涉及到一点也不比电商平台系统简单的搜索平台和社交平台了。
所以,隋波刚刚布置完一系列的业务线工作,
就被庞勇请来,参加技术委员会的会议。
希望让他听一听大家的讨论,最后定下一个方案来。
隋波虽然对技术细节一窍不通,
但是他一直都是公司产品的“首席体验官”。
可以从用户体验的角度,提出需求和改进意见。
这样,技术部门也可以有针对性的,来进行系统改造和技术升级。
另外最重要的是,无论是升级系统,还是改进技术,增加服务器、购买数据库软件……
这些都是需要耗费大量资金的。
如果不让隋波这个大老板来听一听。
到时候报预算,审批下来也慢啊……
在技术委员会上,庞勇简单介绍了目前电商平台的系统架构情况。
现在暂时来看,整合难度最。
像百度搜索,从王川最初开始研发,就有一整套独立的后台系统。
现阶段只需要做数据接口,打通用户信息就可以,等到后期,电商和搜索业务交叉的需求增加的时候,再做更进一步的整合。
电商平台所有产品和功能的底层,其实都是商品管理和交易管理两大系统。
其中主要包括:存储数据库、开发语言、负载均衡、缓存、cdn等。
同时,要想形成真正具备整合能力的“大中台”,将各种业务线整合在一起,还必须有中间件系统(,分布式组件架构),如高性能的服务框架、分布式的数据访问工具等。
简单来说,首先是商品管理系统。
举个例子,电商平台商品管理系统,在后台系统有个专用名词叫商品类目属性。
比如服装,就要分成男装、女装,按照季节,又要分为春夏装、秋冬装……
再继续细分,还可以分为大衣、t恤、裤子……
甚至还能再细分到材质,是蕾丝还是纯棉……
这样,商品的类目属性就会形成非常复杂的网状结构。
对此,技术部门最后做出了一个名为f(森林)系统,来对商品的数据信息进行结构化,以便于前后台的调用。
另外有一个难点,就是图片存储系统。
前两年,因为网速和用户体验的考虑上图片很少。
但现在,无论还是淘宝网上,都已经开始出现了大量图片。
毕竟图片无论是在商品展示上,还是交易系统中都非常重要。
“无图无真相”、“一张好图胜过千言”。
现在电商平台的流量中,图片的访问流量要占到90以上。
这么多的图片数据,和这么大的流量,会给后台系统带来非常大的压力。
尤其是大规模的小文件存储和读取,这就需要在存储技术和缓存技术上,进行升级和创新。
同时也对,基础网络的带宽提出了更高的要求。
另外,因为电商平台所有的功能都需要依赖用户信息,用户中心模块必须单独拿出来,否则以后系统无法扩展。
这就需要一个中心系统ufnter),
可是uic拿出来之后,应用系统每天访问uic,uic访问数据库读取用户信息,和淘宝网现在的流量,几乎每天都有数千万甚至上亿次的读取,数据库很快就会崩溃。
这样,一方面需要进行数据库的分布式数据分层访问,另外就是缓存技术。
从前端的缓存,和全局负载均衡设置,传递到后端,流量就非常均衡和分散了,对前端的相应性能也大大提高。
无论是数据库、负载均衡、缓存、开发语言等,这些还是属于纯技术研发的问题。
可cdn就是真正的硬件投入+软件研发了。
什么是cdn?
本章阅读结束,请阅读下一章