设为首页收藏本站language 语言切换
12
返回列表 发新帖
楼主: powerpanda
收起左侧

vSphere 5 不知道是否支持802.ad,,聚合。。。

[复制链接]
 楼主| 发表于 2011-12-8 17:52:33 | 显示全部楼层

怪不得,,。。。。。。。。。。。。。。。
16# 2011-12-8 17:52:33 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2011-12-8 17:53:28 | 显示全部楼层
Cisco Nexus 1000V 这东东有破解没?好像没。
聚合对于一个高配置服务器太重要了。。上万兆成本要增加几万。
17# 2011-12-8 17:53:28 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2011-12-8 17:54:25 | 显示全部楼层
是啊,我也一直在关注链路聚合的事啊。。。。。
18# 2011-12-8 17:54:25 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2011-12-8 17:55:23 | 显示全部楼层
个人认为802.3ad对于vmware来说用处不大。
对于就iSCSI存储这端来说,用MPIO就可以解决带宽和可用性问题。
对于应用数据访问的vm nework来说,我更倾向把多个网卡分别接入多个交换机,然后以负荷分散方式绑定在一个vmkernel,这样同样可以提高带宽和可用性,效果和802.3ad基本一样。
目前大多数交换机都不支持跨交换机的链路聚合,如果你只要两个网卡需要聚合,还不如用上面的方式更可靠。
19# 2011-12-8 17:55:23 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2011-12-8 17:56:01 | 显示全部楼层

这样行吗?我记得以前看帖子说是一个进一个出,,一个可以带宽叠加,另外一个只能1000m。。问题就在这里,你那样只能防止交换机硬件故障。
20# 2011-12-8 17:56:01 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2011-12-8 17:56:54 | 显示全部楼层

我在Dell MD3000i上观察过iscsi端口的流量,MPIO确实能将流量分散到各个网卡上,并非是一个出一个进。
更高级的iscsi存储厂商通常提供自己的MPIO软件,可以进一步优化。
21# 2011-12-8 17:56:54 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2011-12-8 17:57:47 | 显示全部楼层
MPIO只能实现多vm访问情况下的负载均衡。。。
并不能提高单vm的最大访问带宽
两种设置各有需求,并不重叠
22# 2011-12-8 17:57:47 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2011-12-8 17:58:24 | 显示全部楼层
v5已经支持FCoE了。
23# 2011-12-8 17:58:24 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2011-12-8 17:59:02 | 显示全部楼层

并不能提高单vm的最大访问带宽
24# 2011-12-8 17:59:02 回复 收起回复
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

QQ|Archiver|手机版|小黑屋|sitemap|鸿鹄论坛 ( 京ICP备14027439号 )  

GMT+8, 2025-2-2 23:53 , Processed in 0.055572 second(s), 11 queries , Redis On.  

  Powered by Discuz!

  © 2001-2025 HH010.COM

快速回复 返回顶部 返回列表