Chinaunix首页 | 论坛 | 博客
  • 博客访问: 7111468
  • 博文数量: 3857
  • 博客积分: 6409
  • 博客等级: 准将
  • 技术积分: 15948
  • 用 户 组: 普通用户
  • 注册时间: 2008-09-02 16:48
个人简介

迷彩 潜伏 隐蔽 伪装

文章分类

全部博文(3857)

文章存档

2017年(5)

2016年(63)

2015年(927)

2014年(677)

2013年(807)

2012年(1241)

2011年(67)

2010年(7)

2009年(36)

2008年(28)

分类: LINUX

2012-02-13 22:12:41

对于网格,我道是觉得它应该越来越去中心化,就象人工智能中讲述的那样,在网络中单个节点的智力未必强大,但整个网络的智力水平是非常强大的。如果我们能在计算机网络中也引入这种整体并行计算结构模式,那么我们的网络提供的整体计算性能将超越任何大型或者巨型机的计算性能。比如在一个大型企业中,网络上的计算机节点可能有数千个之多。如果有这种计算模式的话,企业本身是不需要任何其他第三方所谓的云系统的。企业利用现在本身分布在企业中各个地区及办公室的计算机CPU计算能力就能完成可能是无法想象的计算任务。云计算本身就是一种中心化模式的加强,并且这种模式真正的计算资源永远也不是用户的。因此我们的linux自由和开源社区是否能进行这种并行计算结构模式的探索和实验,将网络本身变换成一个超级计算机,网络中一旦有节点加入,节点本身既可以通过网络的整体计算能力为用户提供强大的应用平台,同时又是网络超级计算机的一个神经细胞,分担各种定义的网络计算任务。这样数据被分布在整个网络中的各个计算细胞上,即使部分细胞死亡(比如,计算机硬件故障、死机、硬盘损坏等物理损失),网络的整体计算能力也没有什么大的影响。这样的话网络存在的节点越多,网络的计算能力就越强大,在这里可以定义一个死亡临界值,企业可以定义一个服务器群来保证临界值不被突破,这样即使所有用户级节点都死亡(比如用户下班关机或者断网),也可以保证这个超级计算机存活。用户节点离开网络之后,本地应用应该可以得到维持,一旦加入网络,它将再次演化为网络计算细胞。

阅读(909) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~