Pagbuo ng isang End-to-End AI Network para Paganahin ang Comprehensive AI Capabilities sa Lahat ng Sitwasyon

Sa panahon ng 7th Future Network Development Conference, si Mr. Peng Song, Senior Vice President at President ng ICT Strategy and Marketing sa Huawei, ay naghatid ng keynote speech na pinamagatang "Building an End-to-End AI Network to Enable Comprehensive AI Capabilities." Binigyang-diin niya na ang pagbabago sa network sa panahon ng artificial intelligence ay tututuon sa dalawang pangunahing layunin: "Network para sa AI" at "AI para sa Network," na lumilikha ng isang end-to-end na network para sa cloud, network, edge, at endpoint sa lahat ng mga sitwasyon. .

Ang pagbabago sa network sa panahon ng AI ay binubuo ng dalawang pangunahing layunin: Ang "Network para sa AI" ay nagsasangkot ng paglikha ng isang network na sumusuporta sa mga serbisyo ng AI, na nagbibigay-daan sa mga malalaking modelo ng AI na masakop ang mga sitwasyon mula sa pagsasanay hanggang sa hinuha, mula sa nakatuon sa pangkalahatang layunin, at sumasaklaw sa buong spectrum ng gilid, gilid, cloud AI. Gumagamit ang “AI for Network” ng AI para bigyang kapangyarihan ang mga network, gawing mas matalino ang mga device sa network, lubos na autonomous ang mga network, at mas mahusay ang mga operasyon.

Pagsapit ng 2030, inaasahang aabot sa 200 bilyon ang mga pandaigdigang koneksyon, ang trapiko sa data center ay tataas ng 100 beses sa isang dekada, ang pagpasok ng IPv6 address ay inaasahang aabot sa 90%, at ang AI computing power ay tataas ng 500 beses. Upang matugunan ang mga kahilingang ito, kinakailangan ang isang three-dimensional, ultra-wide, intelligent na native AI network na ginagarantiyahan ang deterministic latency, na sumasaklaw sa lahat ng mga sitwasyon gaya ng cloud, network, edge, at endpoint. Sinasaklaw nito ang mga network ng data center, malawak na mga network ng lugar, at mga network na sumasaklaw sa mga gilid at endpoint na lokasyon.

Mga Future Cloud Data Center: Nagbabagong Mga Arkitektura ng Computing upang Suportahan ang Sampung beses na Pagtaas ng AI Large Model Era sa Computing Power Demand

Sa susunod na dekada, ang inobasyon sa data center computing architecture ay iikot sa pangkalahatang computing, heterogenous computing, ubiquitous computing, peer computing, at storage-computing integration. Ang data center computing network bus ay makakamit ang fusion at integration mula sa chip level hanggang sa DC level sa link layer, na nagbibigay ng high-bandwidth, low-latency network.

Mga Network ng Data Center sa Hinaharap: Makabagong Net-Storage-Compute Fusion Architecture para Ilabas ang Potensyal ng Data Center Cluster Computing

Upang malampasan ang mga hamon na nauugnay sa scalability, performance, stable na operasyon, gastos, at kahusayan sa komunikasyon, ang mga hinaharap na data center ay dapat makamit ang malalim na pagsasama sa computing at storage upang lumikha ng magkakaibang mga cluster ng computing.

Mga Network sa Hinaharap na Wide Area: Three-Dimensional na Ultra-Wide at Application-Aware na Network para sa Ibinahagi na Pagsasanay nang Walang Nakompromiso ang Pagganap

Ang mga inobasyon sa wide area network ay iikot sa IP+optical mula sa apat na direksyon: ultra-large-capacity all-optical networks, optical-electrical synergy na walang pagkaantala, application-aware experience assurance, at intelligent lossless network-compute fusion.

Mga Network sa Future Edge at Endpoint: Full Optical Anchoring + Elastic Bandwidth para I-unlock ang Huling Mile AI Value

Pagsapit ng 2030, aabot ang buong optical anchoring mula sa backbone hanggang sa metropolitan area, na makakamit ang three-tier latency circle na 20ms sa backbone, 5ms sa loob ng probinsya, at 1ms sa metropolitan area. Sa mga edge data center, ang elastic bandwidth data express lane ay magbibigay sa mga negosyo ng mga serbisyo ng data express mula Mbit/s hanggang Gbit/s.

Higit pa rito, ang “AI para sa Network” ay nagtatanghal ng limang pangunahing pagkakataon sa pagbabago: mga malalaking modelo ng network ng komunikasyon, AI para sa DCN, AI para sa mga wide area network, AI para sa mga network ng gilid at endpoint, at mga end-to-end na pagkakataon sa automation sa antas ng utak ng network. Sa pamamagitan ng limang inobasyong ito, inaasahang matutupad ng “AI for Network” ang pananaw ng mga hinaharap na network na awtomatiko, nagpapagaling sa sarili, nag-o-optimize sa sarili, at nagsasarili.

Sa hinaharap, ang pagkamit ng mga makabagong layunin ng mga network sa hinaharap ay umaasa sa isang bukas, kooperatiba, at kapwa kapaki-pakinabang na AI ecosystem. Umaasa ang Huawei na higit pang palakasin ang pakikipagtulungan sa akademya, industriya, at pananaliksik upang sama-samang buuin ang hinaharap na network ng AI at lumipat patungo sa isang matalinong mundo sa 2030!


Oras ng post: Ago-29-2023