设为首页收藏本站language 语言切换
查看: 1803|回复: 21
收起左侧

求教,虚拟化项目用存储当资源池问题

[复制链接]
发表于 2013-5-3 14:29:22 | 显示全部楼层 |阅读模式
由于环境有限,我们公司的存储全部部署在生产环境中,一直没有机会去尝试这种ESX主机+存储模式。
目前生产环境马上就要开始部署虚拟化环境,想先请教一下各位,我们的配置是这样的
一个IBM V7000盘柜+4台IBM 3850机器(配置暂且不提,4台服务器+一个刀柜)
vsphere client怎么去配置?4台服务器全部连接存储(通过刀柜) ,如果将虚拟机全部部署在存储上(将存储划为一个资源池,本地盘目前不用)
存储比较安全,并且我们之后的容灾建设会以存储为单位做灾备方案(不是简单的镜像)
发表于 2013-5-3 14:54:39 | 显示全部楼层
我也刚刚搞了类似配置,准备进行虚拟化用于生产环境
我一刀框4块刀片+1套盘柜(双控制),预算问题没做网络冗余,所以配置如下:
1、刀片配置1千兆以太网交换模块、1FC 8G光光纤交换模块(用于存储数据传输)、8G双口光纤通道卡;
2、盘柜配8个8G口、4G缓存、FC盘。
虚拟化很简单:
1、磁盘只做了一个LAN(就是1个分区吧);
2、刀片光纤交换上2对光纤分别连接到磁盘的2个控制器(HB卡和光纤交换是刀片内部连接不用管);
3、刀片ESXI 5.0或5.1后,用csphere client上去其中一个,进入配置--存储--添加存储,把存储添加进去,4个刀片就都可以看到磁盘了.
4、vCenter之后,建群集把主机都添加进去,启动HA(我连DRS也启用了),把虚拟机装在存储上,关掉任意刀片都会在其他刀片启动起来,实现灾备迁移。已测试,不过出现过直接关2刀片电源群集里面主机丢失过的情况,不知何解。
沙发 2013-5-3 14:54:39 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2013-5-3 23:45:35 | 显示全部楼层
lz你的情况可能和ls的有不同。
你提到的v7000是个全新的或者是空的存储还是一个已经被使用的?另外一个关键问题是你打算怎么用?是新应用部署还是旧的迁移?迁移采用何种方式?
这些将对存储使用方式造成极大影响,对后面的容灾也有影响。
板凳 2013-5-3 23:45:35 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2013-6-3 00:05:03 | 显示全部楼层

只能说这是个相当基础的设计,简单得有点粗糙了。
1 盘柜不划分lun.不是说不行,只是说明你没有用到较细的功能例如精细的快照,当然也可能是没有需求。
2 不光网络没有冗余,存储实际上也没有。当然预算有限会是个问题,那么为何不考虑更廉价的ip san?fc的还是略奢侈了些。
3 本地刀片组成的vsphere群集最多算个ha,而且单存储器直接会报一个警告。这连vmware自己都不好意思叫容灾的……
当然如果是lab问题不大,生产的话奉劝再多想想吧……
地板 2013-6-3 00:05:03 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2013-5-3 14:54:00 | 显示全部楼层
     呵呵,不同企业环境不同,所谓生产和扩容可以适当平衡考虑,我满足1-2年内小应用不出问,就可以扩容了,根据机房的情况实际上我们一般新硬件3年内问题极少。而为给领导想更高层领导提供炒作云概念来讲,我的配置是根据自己需求定制的。
    从技术维护角度讲确实有弊,但是做技术员的兄弟们大多不会去注意人际、思维暗流等等,其实喜欢研究是个人兴趣,如何最大满足工作乐趣和成就感,很多时间需要资金支持各种研究经费的投入,来源于此。
    LS说得很对,DRS在单存储来说一点用处都没有,虚拟化以后只是个HA,还是本地的(物理位置还在一懂楼房);IP SAN令我过于担心I/O,性能是我的关键。
5# 2013-5-3 14:54:00 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2013-6-3 00:41:33 | 显示全部楼层

dr容灾和drs动态资源计划压根是两个术语,内容和用途完全不一样,尤其在vmware论坛里,要稍微注意下。
要达到真正的云计算绝非简单虚拟化可以实现,尽管绝大多数云计算案例看上去底层都是虚拟化的。
6# 2013-6-3 00:41:33 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2013-6-3 09:37:00 | 显示全部楼层

原来如此~~~只需要从配置里添加存储就可以是吧??
也就是说,存储MAPPING给ESX主机后后面就是鼠标解决问题了白?
7# 2013-6-3 09:37:00 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2013-6-3 00:41:33 | 显示全部楼层

大部分是旧应用,从物理机迁移+convert成虚拟机,一,减少空间占用(我们机房机柜太密集了);二,节能。其实这两条都是假的,便于我们去管理才是真
V7000之前就有,这次只是为虚拟化多扩一个盘柜而已
大家好热情啊,哈哈~~~高兴高兴
8# 2013-6-3 00:41:33 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2013-6-3 10:35:40 | 显示全部楼层

LUN肯定要划,而且我们是要做规划的,这个好办~~~
容灾有可能会用CDP+NSS~~~~考虑到如果每个虚拟机都安装插件,会严重影响整体的性能,所以直接采用克隆存储的方式~毕竟我们还有别的机器(小机,PCSERVER),每一种环境需求不一样,到时候还得现看
还是感谢大家哇!
9# 2013-6-3 10:35:40 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2013-5-3 14:54:00 | 显示全部楼层

I/O我觉得问题不大,既然上存储,内部的I/O  4G/8G应该是没什么问题,我更担心的是网络吞吐够不够,因为目前在我们测试网上已经出现网络带宽不够用的情况了(当然,测试只有10MBPS)
虚拟化后的HA,唉。。不论怎么做,都要重起虚拟机,所以注定前期只能先把小应用或实时性不是很强的系统挂在上面(我们是金融行业,业务连续性很重要!)
10# 2013-5-3 14:54:00 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2013-6-3 10:37:26 | 显示全部楼层

现有应用迁移类的虚拟化首先考虑是如何部署Vm里面的虚拟硬件规划,其实就是如果不虚拟化的物理拓扑是什么样的。通常第一步是尽可能近似原来的拓扑。
因此你原来的存储是划分Lun直接供给物理机的,如果考虑应用最少变化(尤其是备份和容灾设计),依然应该采用Lun直接供给Vm的方式而非Lun供给ESXi主机,变成VMFS上的VMDK供给。这里最大的区别是管理存储的粒度,以及容灾方面的。
给你些建议
1 别参考2楼的方案了,他的方案不适合你的情况。
2 找Vmware谈一次,或者至少找个IBM咨询谈一次,会给你理清思路的机会,你目前的状态不适合立马上生产
3 由于你的行业,建议稳扎稳打,迁移慢慢做,尽量别convert,事实证明p2v永远不如重新部署。
11# 2013-6-3 10:37:26 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2013-5-3 23:45:00 | 显示全部楼层

恩,肯定会找IBM~~~毕竟IBM就代理VMWARE的产品,实施具体就不知道谁做了,我们进货都是直接走IBM中国总代理
感谢提醒,这个迁移确实会出各种问题,比如LINUX迁移,LV会出问题;再就是数据库有时会出现问题(原因应该就是迁移=一次非正常关机,所以现在迁移都是停数据库再迁);迁移虽然会出不少问题,但是如果重新部署。。。。工作量实在太大。。。。我们一期上的这些系统都是些小应用,没有非常重的业务系统,毕竟重要业务系统都是用小机,不会去用PCSERVER的
12# 2013-5-3 23:45:00 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2013-6-3 10:41:17 | 显示全部楼层

叫你找IBM的原因是你的硬件完全是IBM系的,让他们给你找个VMware售前给你做个方案和咨询
小应用重新部署所花的时间,其实要比P2V迁移后有问题解决问题来得少得多。
虚拟化最忌不了解应用和结构。这种引入的问题会比解决的还要多。
13# 2013-6-3 10:41:17 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2013-6-3 00:05:00 | 显示全部楼层

10mbps还是100mbps???
虚拟化,应用所在的网络建议千兆以上 —— 因为一个千兆网卡需要负担多个VM了。
14# 2013-6-3 00:05:00 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2013-6-3 10:43:47 | 显示全部楼层

看IBM,金融,Fc。
15# 2013-6-3 10:43:47 回复 收起回复
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

QQ|Archiver|手机版|小黑屋|sitemap|鸿鹄论坛 ( 京ICP备14027439号 )  

GMT+8, 2025-3-7 07:11 , Processed in 0.080606 second(s), 23 queries , Redis On.  

  Powered by Discuz!

  © 2001-2025 HH010.COM

快速回复 返回顶部 返回列表