设为首页收藏本站language 语言切换
查看: 2668|回复: 22
收起左侧

未来存储可能接入方式FCoE或者iscsi

[复制链接]
发表于 2014-4-15 11:11:38 | 显示全部楼层 |阅读模式
在将来存储接入方式上,我目前从接触到的来看,iscsi和FCoE有点不相上下,我从多家外企的实施了解到,他们更倾向于FCoE,而且在新计划的数据中心机房里面FCoE的交换机已经规划在列,从厂家的技术来看,FCoE交换机也支持iscsi,比如cisco的nexus系列交换机。但是在国内的很多用户和厂家倾向于iscsi,根据上次和冬瓜头的讨论,他可能更倾向于iscsi(只是我的猜测,他没有明确说明),以上仅代表个人观点,欢迎各位拍砖和灌水。也希望各位就目前实施情况或者就个人观点发表意见
发表于 2021-3-24 14:02:27 | 显示全部楼层
楼主,能分享下您的vcap nv 3V0-42.20的题库么,怎么联系您
23# 2021-3-24 14:02:27 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:26:36 | 显示全部楼层
2012年的今天如果还停留在机械硬盘上 就不要谈IOPS了
22# 2014-4-15 11:26:36 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:26:00 | 显示全部楼层
和很多其他东西一样,FCoE也不是什么灵丹妙药,但它可以是一种很好的过渡技术,帮助以 FC为中心的数据中心节省开支,可以通过共享以太网架构来保留其在FC上的投入。如下是FCoE最可能的三种结果:
    1.  FCoE 可能会雷声大雨点小,徒劳无功。
    2.  FCoE 可能帮助iSCSI占领高端市场铺平道路——FCoE可能是 iSCSI发展道路上的一个过渡阶段。保留了FC系统但让数据中心能够共享更多的以太网架构。
    3.  只要存储厂商乐于开发相关的产品,而且只要在高端市场中还存在对 iSCSI的偏见,FCoE有可能在高端市场中取代 FC。时间会证明一切。
    随着iSCSI发展得越来越成熟,在各个层面的市场中多点开花将不成问题。如果想要FCoE 获得真正的发展,存储系统厂商现在就要有所动作,来支持它。我深信不疑今后FCoE将在SAN互联中占的一席地位,甚至成为SAN互联的主宰。
21# 2014-4-15 11:26:00 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:25:26 | 显示全部楼层
一句话,如果你是一名专业的车手,你是喜欢在专业的赛道上跑车呢,还是喜欢在国道或高速公路上跑?
我个人觉得,iSCSI、FC、FCoE都有其技术特性和市场需求,但是对于专业的中大型企业来说,崇尚的是专业的人干专业的事,专业的技术用着专业的业务;未来IDC主流会持续FC技术。
虽然基于IP的数据能跑无限距离,但别望了给予TCP/IP的以太网安全性、高效性问题是有目共睹的。
20# 2014-4-15 11:25:26 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:24:29 | 显示全部楼层

大多数的情况是:说存储性能不够用的人多半不知道自己的应用在业务高峰需要多少的IOPS、吞吐;甚至是搞不清楚IOPS与吞吐之间有啥关系~~~
签名
---
性能监测是调优的基础
19# 2014-4-15 11:24:29 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:23:34 | 显示全部楼层

利用SSD当缓存,那7000IOPS之类的就很正常了。
18# 2014-4-15 11:23:34 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:23:03 | 显示全部楼层

我看到很多例子,都是说原来的存储性能不够用。可是还有一堆的闲置存储丢在边上不用!因为那些存储是P2V的时候留下来的。实际上虚拟化带来的是服务器整合,并不要求也不应该在存储上也整合。原因主要是成本。因为存储整合的性价比很低!因此考虑到性价比,我通常建议不要买大而全的高端存储来一口吃掉所有的存储需求,而是具体分析应用,分层分布实施多个存储。这样通常可以在不损失功能的同时获得较高的性价比。
17# 2014-4-15 11:23:03 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:22:13 | 显示全部楼层
本帖最后由 seanlaser 于 5-22-2012 09:27 编辑
有种东西叫SSD而且这个东西在控制器上可以作为缓存优化IOPS,而不是直接当盘使。更何况还有Cache的作用。
不少人不相信从VM中测得的数据,总是说是Cache的作用。可是Cache本来就是用来加速和优化的,当然也要计算在性能内了。
当然,如果应用很不鸟Cache……那好吧
16# 2014-4-15 11:22:13 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:21:29 | 显示全部楼层
我比较看好FCOE.但这玩意只是有钱企业才玩得起,普及量产还得等上好几年时间。企业商业应用肯定是要的是性价比。 一般的企业还是倾向于FC,毕竟这玩意用了好多年。性能方面还是比较可靠的. 小型企业估计只能玩玩iscsi了
15# 2014-4-15 11:21:29 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:20:50 | 显示全部楼层

十几二十个SAS硬盘,IOPS不大可能超过5000吧?
14# 2014-4-15 11:20:50 回复 收起回复
回复 支持 反对

使用道具 举报

 楼主| 发表于 2014-4-15 11:20:10 | 显示全部楼层

你对国内国外使用FCoE和ISCSI的分析比较中肯,我觉得分析的不错,至于虚拟化要不要上好的存储,呵呵,这个我也说不好,我现在碰到好多案例,就是需要迁移vmware,原因很简单原来的存储性能不佳,比如以前的netapp存储,IBM存储等等的都换了,要换成高端点的IBM或者EMC
13# 2014-4-15 11:20:10 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:19:24 | 显示全部楼层
现在有个不怎么正确的习惯,那就是上虚拟化就要上好存储。
固然要实现高级的虚拟化功能的确需要存储支持,而且这存储还要求不低。很多厂商是这么算得,你要上虚拟化吧,那么多VM你总要存吧,那么多VM的IO总要地方处理吧,你自己乘一下就能算出需要多少IOPS和吞吐量了吧,你看我们的产品……
就我看来,这么被忽悠的人绝对不少。因为很多时候,做技术的不考虑性价比,而且人浮于世,又有多少人能沉下心来看到底是什么情况呢。
要知道现在的机架式服务器里面的控制卡是越来越好了,本地datastore的性能相当的好,超过300MB/s的读写速度,超过7000IOPS的能力比比皆是。在区域存储上实现这个性能和容量你往往将要付出超过4倍的价格。
12# 2014-4-15 11:19:24 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:18:35 | 显示全部楼层
本帖最后由 TiGi 于 5-21-2012 15:50 编辑
选择哪个,是由屁股决定的:我能有足够的钱、足够的人员编制和没有足够的钱、没有足够的人员编制,是两种不同的做法。
————————
05年开始,就用光纤了。但是,用光纤,需要折腾交换机 —— SW3250交换机我是基本没怎么动弹过! —— 原因:1、不熟悉;2、没有足够的HBA卡! —— 有HBA卡的服务器都在跑应用呢!呵呵。
所以,08年的时候选择了iSCSI的 MD3000i —— 有网卡的机器多多了!PC、NB上都可以挂iSCSI的Lun!而08、Win7对iSCSI的支持,比XP、03好太多了。
11# 2014-4-15 11:18:35 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2014-4-15 11:17:58 | 显示全部楼层
国内iSCSI受欢迎的原因也很多
其一:FC结构本身掌握在少数几家厂商手中,国内厂商进入成本较高,因此大家均转而投入iSCSI。
其二:iSCSI可以用既有的IP网络,无需专门在布线上投入,企业的使用门槛较低。比较受国内企业的欢迎。
其三:iSCSI相对实施简单,无需专门投入技术人员,通常管服务器的加上个管网络的就能玩了。因此管理上的投入也低
其四:在当前,iSCSI的性能基本也能满足绝大部分需求。
10# 2014-4-15 11:17:58 回复 收起回复
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

QQ|Archiver|手机版|小黑屋|sitemap|鸿鹄论坛 ( 京ICP备14027439号 )  

GMT+8, 2025-5-20 20:00 , Processed in 0.072874 second(s), 26 queries , Redis On.  

  Powered by Discuz!

  © 2001-2025 HH010.COM

快速回复 返回顶部 返回列表