設計數據中心時,最常見的方法是使用三層方法。此方法包括經典的接入層、匯聚層和核心層,常被稱為三層拓撲結構。數據中心設計正在從這種三層方法向更特定的數據中心演變,呈現出朝兩層主干-葉節點架構發展的現代趨勢。
光纖通道存儲是整合在以太網上的,可與其他以太網流量和IP流量共存。
FCoE并不是必須的;許多虛擬化數據中心的部署都使用IP存儲。
不同虛擬化數據中心的一個重要區別在于網絡矩陣本身。
構建數據中心網絡矩陣時,一定要考慮到將來會在每臺主機上運行的虛擬機數量和應用數量,這些信息可為使用超載比提供指導。
虛擬化數據中心設計會使用各種QoS功能來對使用和連接第一臺ToR交換機相同的上行鏈路的各種流量模型提供不同的優先級。在虛擬化數據中心運行的典型應用類型常常采用所謂的三層應用模型:由特定的應用、數據庫和Web服務器組合而成。每一層通常運行在一臺專門的虛擬機上。在企業部署中,數據庫常常托管在裸機服務器上。
通過在同一臺物理計算機上運行多個虛擬機和應用,硬件資源就能得到更有效的利用。
存儲被視為一個沒有物理邊界的資源池。
存儲虛擬化適用于大型的存儲區域網絡(SAN)陣列,本地工作站硬盤驅動器的邏輯分區,或者獨立磁盤冗余陣列(RAID)。
負載均衡允許用戶將多個web服務器和應用作為一個實例來訪問,而不是采用每臺服務器一個實例的方法。
編排指的是協調地配置虛擬化資源池和虛擬實例。
大數據的屬性:數據量、速率、種類和復雜性。
大數據通常不包含唯一標識符。
大數據組件需要與企業當前的業務模式相集成。
無法有效處理突發流量的網絡將會丟棄數據包,因此設備需要優化緩沖區來承受突發流量。
在選擇交換機和路由器時,一定要確保其架構采用了可有效處理突發流量的緩沖區和隊列策略。
優秀的網絡設計必須考慮到網絡中的關鍵位置在真實負載下發生不可接受的擁塞的可能性。
超載配置網絡需要很高的成本。一般可接受的超載比是,服務器接入層約為4:1,接入層與匯聚層或核心之間為2:1。
一個集群的推薦配置依賴于工作負載特征。
任何與網絡延遲相關的優化必須從網絡級分析開始?!跋燃軜?,后設備”是一種有效的策略。應用級延遲對于工作負載的影響比網絡級延遲大得多,應用級延遲主要是由應用邏輯造成的。
網絡流量在數據中心內通常為東西向的流量模式。規模性部署可通過POD模型來實現。
大數據基于IP,而HPC通?;谝蕴W而不是IP。
HPC存儲通常不需要光纖通道,任何特定的存儲網絡也不受交換機上的地址約束。
HPC設計的典型網絡超載比為2:1。要想實現更低成本的設計,可增加超載比,最高通常為5:1。
高頻交易(HFT)環境是最具代表性的超低延遲(ULL)數據中心。
源復制提供了將市場數據信息復制到處理市場數據的不同目標服務器(稱為源處理器)的最快方式。(Nexus 3548-50納秒)
超大規模數據中心(MSDC)系統是一種基于clos矩陣,使用思科平臺構建的參考架構。
EoR是經典的數據中心模型,其中交換機放在數據中心機柜列的一端。每個機架有電纜連接到列端網絡設備。
MoR是EoR模型的一種變形。使用MoR,網絡位于中部。減少了電纜長度的要求。
ToR是目前最常用的。它定義了將服務器連接到位于同一個機架內的交換機的架構。
在設計網絡時會假設一些組件是會發生故障的,而不是嘗試讓網絡組件完美無瑕。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。