摘要:雖然10GbE以太網(wǎng)的延遲時間比1GbE以太網(wǎng)的延遲時間要少,但是,一般來說,這個差別并不會對存儲性能造成太大的影響——尤其是你使用傳統(tǒng)的旋轉(zhuǎn)式磁盤的時候。當(dāng)你的存儲設(shè)備要花費長達100倍的時間來響應(yīng)的時候,減少60微秒的連接延遲時間并不會起到什么明顯的效果。如果你大量使用SSD的話,那么,相對于存儲的延遲時間來說,這個連接延
雖然10GbE以太網(wǎng)的延遲時間比1GbE以太網(wǎng)的延遲時間要少,但是,一般來說,這個差別并不會對存儲性能造成太大的影響——尤其是你使用傳統(tǒng)的旋轉(zhuǎn)式磁盤的時候。當(dāng)你的存儲設(shè)備要花費長達100倍的時間來響應(yīng)的時候,減少60微秒的連接延遲時間并不會起到什么明顯的效果。如果你大量使用SSD的話,那么,相對于存儲的延遲時間來說,這個連接延遲時間所占的比例會更大一些,也許在這種情況下,值得進行這項額外的投資。
可管理性和聚合
10GbE以太網(wǎng)的亮點是容易管理。雖然通過多個1GbE的連接,使用現(xiàn)有的硬件和軟件也可以實現(xiàn)MPIO (Multi-Path IO),但是配置,監(jiān)控和管理起來都比較痛苦。甚至布線也成為了一種痛苦——一個1GbE的SAN,在兩個冗余控制器之間可能有8個或8個以上的1GbE連接,而且,一個1GbE的SAN通常會使用上限為4個控制器的主動/被動控制器架構(gòu)。
即使在存儲設(shè)備上你不選擇10GbE的以太網(wǎng),你也應(yīng)該認(rèn)真地考慮一下在服務(wù)器端使用它——尤其是你處在虛擬化的環(huán)境下。一個支持iSCSI的虛擬主機主機,如果使用1GbE網(wǎng)絡(luò)的話,每次(也許是每兩次)進行主機管理,虛擬機通信,以及iSCSI訪問至少會消耗掉6個1GbE的端口。你可以用一對冗余的10GbE接口替換掉那6個接口,這是很容易做到的,你可以通過這對接口來做任何事情,雖然你的端口消耗量和電纜數(shù)顯著地減少了,但是你的總體可用帶寬卻增加了。
此外,如果你使用“刀片”架構(gòu)的話,那么你可以通過使用智能的聚合網(wǎng)絡(luò)(converged networking)進一步深化這個模型。HP為他們的C類“刀片”產(chǎn)品提供的Virtual Connect模塊就是一個很好的例子(當(dāng)然,這方面的例子不止這一個)。通過這個VC(Virtual Connect)模塊,你可以在“刀片”服務(wù)器內(nèi)置的10GbE接口上創(chuàng)建多個“Flex NIC”,它們每個都有自己的帶寬限制和網(wǎng)絡(luò)設(shè)置。一個完整的“刀片”框架也許只需要兩個或四個外部的10GbE連接就可以連接到你的物理交換網(wǎng)絡(luò)的其余部分了——令人難以置信的管理和成本優(yōu)勢。
不要沖動,沖動是“魔鬼”
概括起來,10GbE的IP存儲比1GbE的IP存儲更快,更容易管理,但是,它還是太貴了,并且,你可能根本就不需要它(但是如果你能得到它,那么你會喜歡它的)。
當(dāng)然,在接下來的幾年里,這些陳述也許會變得十分不合時宜,就像我在幾年之前(那時我的筆記本還沒有Gb級的接口)說的話一樣:“除了核心的網(wǎng)絡(luò)骨干之外,沒有人會需要1GbE的網(wǎng)絡(luò)。”或者,再往前幾年,人們會說:“除了核心的網(wǎng)絡(luò)骨干之外,沒有人會需要100Mbps的網(wǎng)絡(luò)?!被蛘?,許多,許多年以前,人們會說:“LocalTalk比較不錯——以太網(wǎng)太貴了?!?/P>
通信工程師備考資料免費領(lǐng)取
去領(lǐng)取