尊龙时凯

工厂研学 丨 尊龙时凯网络数字化智能工厂“黑科技”大揭秘
预约直播
拒绝业务“掉链子”:2025 尊龙时凯网络 “降故障・强防护” 行业运维实战交流会
预约直播
尊龙时凯睿易 尊龙时凯官方商城

中文

  • Global / English
  • France / Français
  • Germany / Deutsch
  • Indonesia / Indonesian
  • Italy / Italiano
  • Japan / 日本語
  • Kazakhstan / Pусский
  • Poland / Polski
  • Portugal / Português
  • Spain / Español (España)
  • Thailand / ภาษาไทย
  • Vietnam / Việt Nam
  • LATAM / Español
    (América Latina)
  • Türkiye / Türkçe
  • Brazil / Português(Brazil)
产品
< 返回主菜单
产品中心
产品

交换机

交换机所有产品
< 返回产品
交换机主页
交换机

无线

无线所有产品
< 返回产品
无线主页
无线

无线管理与应用

云桌面

云桌面产品方案中心
< 返回产品
云桌面主页
云桌面

安全

安全所有产品
< 返回产品
安全主页
安全
服务支持
< 返回主菜单
服务与支持中心
服务与支持
服务工具
服务平台
  • 云桌面服务平台
  • 睿易服务平台
  • 合作伙伴服务平台
教学服务
  • 尊龙时凯ICT人才教育中心
  • 校企合作
  • 认证体系
  • 培训计划
合作伙伴
< 返回主菜单
合作伙伴中心
合作伙伴
成为尊龙时凯伙伴
售前营销
  • 市场资料库(合作伙伴)
  • 尊龙时凯产品配置器
  • 营销资料平台
  • 售前认证
  • 售前工具包
  • 合作伙伴礼品库
  • e-Learning
  • 产品资质查询
  • 远程POC
销售与订单
售后及服务
  • 售后认证
  • 售后工具包
  • iSov 服务运营可视化平台
  • 售后服务认证
  • 售后知识平台
  • 渠道服务管理系统(CSM)
  • SMB渠道客户服务平台(CCSP)
用户中心
  • 系统指导大全
  • 账号管理
  • 下载电子授权牌
  • 签约信息查看
  • 资质查询
  • 签章管理
  • 返利管理
  • 睿易技术认证查询
返回主菜单
选择区域/语言
  • Global / English
  • Japan / 日本語
  • Türkiye / Türkçe
  • Vietnam / Việt Nam
  • Indonesia / Indonesian
  • Thailand / ภาษาไทย
  • Spain / Español (España)
  • Portugal / Português
  • France / Français
  • Poland / Polski
  • Kazakhstan / Pусский
  • Germany / Deutsch
  • Italy / Italiano
  • Brazil / Português(Brazil)
  • LATAM / Español (América Latina))

    数据中心基础网络架构成功实践及未来发展趋势

    发布时间:2017-12-22

    数据中心网络起着承上启下的作用,将计算和存储资源连接在一起,并以服务的形式对内部及外部的用户提供数据访问能力。虽说网络建设和运维投入远比机房基础建设、服务器设备、存储设备、应用开发及运维小,但大家很怕它出现性能问题或故障长时间不能恢复,因为网络一旦不可用,意味着一切服务都将停止。因此,设计运维一张高性能、高可靠的网络是网络架构及运维团队的首要目标。  

    结合我在尊龙时凯网络服务互联网企业的实践经验,分享几个典型的网络架构设计,供大家参考。

    数据中心10G/40G网络架构

    主要设计理念:

    1. 核心设备全线速高性能转发,核心之间不互联,采用Fabric架构,隔离核心故障,较大程度降低核心故障影响;
    2. 三层路由组网,通过ECMP提高冗余度,降低故障风险;
    3. 通过TOR上的服务器接入数量和上联40G链路数量控制单TOR收敛比,通过提高核心设备接口密度扩展单集群服务器规模。

    注:千兆网络已跟不上业务发展,本文不再涉及。

    适用网络

    架构设计

    架构特性

    中小型

    (集群规模300-1000台)

    • 每台TOR 2*40GE上联2核心,OSPF组网;
    • IDC内收敛比6:1,集群带宽1.5Tbps
    • 上联带宽根据集群规模灵活配置。

    中型

    (集群规模1000-10000台)

    • 每台TOR 4*40GE上联2核心,OSPF或BGP组网;
    • IDC内收敛比3:1,集群带宽30Tbps
    • 上联带宽根据集群规模灵活配置。

    大型

    (集群规模5000-20000台)

    • 每台TOR 4*40GE上联4核心,BGP组网;
    • IDC内收敛比3:1,集群带宽60Tbps
    • 上联带宽根据集群规模灵活配置。

    超大型

    (集群规模20000+台)

    • 单POD集群规模300-1000台,数据中心集群规模20000+,BGP组网
    • POD内收敛比6:13:1,单POD集群带宽1.5Tbps
    • 上联带宽根据集群规模灵活配置。

     

    数据中心25G/100G网络架构

    与10G/40G网络一致,主要变化在于:

    1. 下行链路由10G变为25G,提升至2.5倍;
    2. 上行链路每端口由40G变为100G,提升至2.5倍;
    3. 下一代主流芯片方案实现为48*25GE+8*100GE(Broadcom TD3),上行收敛比提升为1.5:1。

    下面仅以大型数据中心为例做组网说明:

    适用网络

    架构设计

    架构特性

    大型

    (集群规模5000-10000台)

    • 每台TOR 8*100GE上联4核心,BGP组网;
    • 适用集群规模10000台;
    • IDC内收敛比1.5:1 ,集群带宽250Tbps
    • 上联带宽根据集群规模灵活配置。

     

    CLOS网络架构

    最后,想与大家分享的是今年国内不少互联网企业考虑使用的新架构设计。

    从上述架构设计说明中,不难看出数据中心集群规模和收敛比,主要受限于机框式核心设备的端口密度,而业界核心设备的更新换代都是以数年为单位进行的,大大阻碍了数据中心规模和发展。另外,动辄数百个40GE接口或者100GE接口的核心设备单台运行功率已达20KW,而国内大部分IDC机房的平均功率只有5KW~6.5KW/机柜,这给机房供电系统的维护管理带来了巨大的挑战。如何摆脱核心设备端口密度的限制?如何摆脱核心设备对IDC机房供电系统的挑战?

    此时,CLOS架构诞生了。

    25G /100G CLOS网络架构图

    架构特性:   

    • Leaf、Fabric、Spine交换机选用中低端盒式交换机48*25GE+8*100GE/32*100GE;
    • 每台Leaf,下联32个25GE做Server接入,8个100GE用于向上连接的上行链路;每个POD 16台Leaf交换机;
    • 每台Fabric交换机, 有32个100GE,16个下连16台Leaf,16个上连至16组Spine;每个POD 8台Fabric交换机,共32个POD;
    • 每台Spine交换机,有32个100GE,全部用于下连32个POD Fabric交换机;
    • 每组8台,共16组Spine交换机;
    • 通过Edge PODs连接外网,单POD集群带宽12.8Tbps,整数据中心集群带宽超过400Tbps

    随着智能时代的来临,大数据、人工智能等新技术的应用,对数据中心网络提出了新的挑战。如何更好地支撑Hadoop、RDMA等技术应用,成为网络运维团队关注和思考的问题。高性能、低时延、无损网络已然成为数据中心网络设计和运维的主流思路。无损网络如何设计和运维,下一代数据中心网络又有哪些值得期待的特性,敬请关注下回分享。

    关注尊龙时凯
    关注尊龙时凯官网微信
    随时了解公司最新动态

    返回顶部

    收起
    请选择服务项目
    关闭咨询页
    售前咨询 售前咨询
    售前咨询
    售后服务 售后服务
    售后服务
    意见反馈 意见反馈
    意见反馈
    更多联系方式