Nov 182012
 

今天算是过上幸福生活,早上联通突然上门,免费升级光纤,10M。本来打算出门的,也就专门在家等待他们升级光纤。我其实对布线方面比较外行,我就好好学习一下。

以前楼里有管道,所以光纤也很容易进入的家里。忙了半天,从我以前接网线的地方,接出一个光纤,直接接到一个设备上。工作人员说需要等待一段时间才能开通,也就离开了。对于这种家里路由的问题,我想不是什么大问题。

晚上从外面回家,折腾上网,发现这个中兴的设备,比较特别,怎么让家里用上无线,估计我需要折腾折腾。

Continue reading »

Nov 112012
 

这个其实已经看到过很多评论,今天看到两篇文章,倒是比较深入记录一下。

我个人一直对阿里那个博士印象很差。不过在这个事情上,倒是很赞同他的一些做法。技术人员的一些考虑,有时候是有明显的局限性。

据说今天的光棍节,就基本都是跑在去IOE上。

http://www.mysqlops.com/2012/03/29/oracle-dba-taobao-alibaba.html

http://www.mysqlops.com/2012/05/07/alibaba-ioe.html

这篇文章介绍淘宝的技术的发展,比较有意思。2005年的时候,当时我也在互联网,当时做网站的一个学习对象就是淘宝。当时很奇怪,为啥淘宝的速度那么快, 那时候的网站基本都是apache,mysql和PHP。现在看来,他们是因为用Oracle的原因。

http://kb.cnblogs.com/page/132724/#p6

看了淘宝的TFS的设计,其实感觉和swift差不多。其实刚开始的时候TFS也是用Raid,后来也改成不使用Raid。

http://kb.cnblogs.com/page/132752/

Nov 112012
 

其实那么大的流量,目标那么大。出问题也就正常。12点刚过,支付宝就基本瘫痪。截图几个。

快照36

实在不明白,啥是spanner,搜索一下,好像是google的东西啊。

实在不行,娱乐一下,这个笑话每次都不一样

快照37

做互联网的,就要对DDOS有心理承受能力,一般的流量攻击,很难影响淘宝,不过这次估计顶不住。访问量那么多,怎么区分攻击流量和正常访问流量。

如果支付宝正常,那么银行就遭殃了。按道理华夏银行,不是太多用户使用,不过也悲剧

快照38

不容易,一直到1点40,才把钱支付。

Nov 042012
 

这几年干的活,都有点时髦,2007年的时候,折腾服务外包,整天ITO,BPO,当时国家还搞了20个服务外包城市,据说2年评比一次,末位淘汰。不过现在已经基本听不到什么服务外包的。那些以前搞IT预测,咨询的,都已经忘记自己以前说过啥,预测过有多少产值。

现在外包已经过时,已经进入云时代。如果你的城市还没有动作,那就赶紧,不然就落后了。看来这次全国是全民皆云。下面这个图,漏掉的哈尔滨,内蒙这两个重要城市,搞云计算,需要电,这两个地方天气冷,电力便宜。

http://cloud.51cto.com/art/201211/363230.htm

云图

Aug 272012
 

搞技术的,经常都讨论这个问题,开源里就更是,选择太多,那个是最好的。所有人都希望自己的选择是最优的,而不会出错的。

但是现实的条件,其实很难做出最优决策。举一个简单的例子:Xen和KVM,你选择谁,不同的时候,你的选择会不一样。

下面这段话,我相信真的是过来人,以其在办公室里开会讨论那个更好,不然先用简单的办法去尝试一下,而不是指望在办公室里可以讨论出一个最佳的方案。

选择简单但是不完美的技术解决问题,先做!然后再不断优化。如果不去尝试,我们永远也不知道下一步要做什么,总是停留在对技术方案本身优劣的讨论上,是没有意义的。

http://www.infoq.com/cn/news/2012/08/ssd-trend

Jul 292012
 

这个项目我倒是听说过:百度,腾讯,阿里3家搞的服务器设计,intel作为参谋。和厂商交流过,国内的3大巨头,如果单个的服务器用量,其实还不足以进行服务器的定制。

这个项目,其实也基本是仿效Facebook的open computing的项目来做的。

http://www.opendatacenter.cn/?cat=6

学习了一下技术规格,总结一下

  1. 44u的机柜,比传统42u高2u
  2. 交换机放在中间,上面20u,和下面20u放服务器,这个设计比较有意思,我以前也有类似的想法,干嘛不把交换机放中间,这样能省多少网线。
  3. 机柜管理单元(RMC),这个还是比较创新,解决服务器定位的问题。这可是一大贡献。为了这个专门出了一个规范。就是不知道什么时候可以落实。
  4. 交流,直流。日后估计都是高压直流的天下。这个好好关注。
  5. 承重1200公斤,这个考虑还是比较超前。

思考

  1. 44u是不是太低:国外已经是52u高度的机柜,因为目前数据中心,高度基本不是问题。这样是一个很大的浪费
  2. 交换机的位置是否足够。现在1u的交换机,最多也就是80网口,对于大密度的机器,网口还是不够用
  3. 机器有必要那么密集:把一个机柜都摆满,散热成本就高。到底什么密度,最经济呢? facebook的机房设计可不是这样。
  4. 用u为单位:facebook的服务器是1.5u,这个让服务器厂商很头疼。不标准。但是这样据说可以节能。
  5. ups好像是没有考虑。