100 Gigabit Ethernet (100 GbE): a 100 Gbps sebességű Ethernet szabvány definíciója

A 100 Gigabit Ethernet (100 GbE) egy modern hálózati szabvány, amely akár 100 Gbps adatátviteli sebességet kínál. Ez a technológia gyorsabb és hatékonyabb internetkapcsolatot tesz lehetővé, főként nagy adatforgalmú rendszerekben és adatközpontokban használják.
ITSZÓTÁR.hu
25 Min Read

A 100 Gigabit Ethernet (100 GbE) alapjai és definíciója

A digitális kor hajnalán az Ethernet, mint hálózati technológia, forradalmasította az adatkommunikációt. A kezdeti 10 megabit per másodperces (Mbps) sebességektől mára eljutottunk a gigabites, sőt, a terabites tartományokba. Ezen fejlődés egyik kulcsfontosságú állomása a 100 Gigabit Ethernet (100 GbE), amely a 100 gigabit per másodperces (Gbps) adatátviteli sebességet teszi lehetővé. Ez a szabványosított technológia, amelyet az IEEE (Institute of Electrical and Electronics Engineers) 802.3-as munkacsoportja dolgozott ki, alapvető fontosságúvá vált a modern adatközpontok, a felhőalapú infrastruktúrák és a nagyvállalati hálózatok számára, ahol a hatalmas adatmennyiségek gyors és megbízható továbbítása elengedhetetlen.

A 100 GbE nem csupán egy sebességnövelés; ez egy komplex ökoszisztéma, amely magában foglalja az új fizikai réteg specifikációkat, modulációs technikákat, csatlakozó típusokat és kábelezési szabványokat. Célja, hogy megfeleljen a növekvő sávszélesség-igényeknek, amelyeket olyan trendek generálnak, mint a big data analitika, a mesterséges intelligencia (MI) és gépi tanulás (ML) számításai, a virtualizáció, a konténerizáció, valamint a nagyméretű, elosztott alkalmazások. Ezek a technológiák mind hatalmas mennyiségű adatot mozgatnak a hálózaton keresztül, ami megköveteli a hagyományos 10 GbE és 40 GbE hálózatok kapacitásának meghaladását.

Az Ethernet fejlődésének üteme rendkívül gyors volt. Az 1980-as évek elején bevezetett 10 Mbps-os Ethernetet hamar követte a Fast Ethernet (100 Mbps), majd a Gigabit Ethernet (1 Gbps). A 2000-es évek elején megjelent a 10 Gigabit Ethernet (10 GbE), amely hosszú ideig a gerinchálózatok és szervercsatlakozások alapja volt. Azonban az adatforgalom exponenciális növekedése szükségessé tette a következő ugrást, ami először a 40 Gigabit Ethernet (40 GbE) formájában jelent meg, majd szinte azonnal követte a 100 GbE. Ez a párhuzamos fejlesztés és a gyors bevezetés is mutatja, mekkora volt a piaci igény a nagyobb sávszélességre.

A 100 GbE szabvány elsődleges célja az volt, hogy a meglévő Ethernet protokollok és keretformátumok megőrzése mellett érje el a drámai sebességnövelést. Ez biztosítja a visszamenőleges kompatibilitást és megkönnyíti a hálózatok korszerűsítését. Az IEEE 802.3ba szabvány volt az első, amely specifikálta a 100 GbE-t, 2010-ben. Ez a szabvány lefektette az alapokat a multi-lane (többsávos) működéshez, ahol több alacsonyabb sebességű optikai vagy elektromos sávot multiplexelnek össze a kívánt 100 Gbps sebesség eléréséhez. Ez a megközelítés lehetővé tette a meglévő technológiák adaptálását a magasabb sebességekhez, minimalizálva a teljesen új technológiák kifejlesztésének szükségességét.

A 100 GbE bevezetése nemcsak a hálózati sebességet növelte meg, hanem jelentős hatással volt az adatközponti architektúrák tervezésére is. Lehetővé tette a hálózati rétegek konszolidációját, csökkentve a szükséges kábelek és portok számát, ami egyszerűsíti a hálózatkezelést és csökkenti az üzemeltetési költségeket. Emellett a nagyobb sávszélesség lehetővé teszi a szerverek és tárolórendszerek teljesítményének jobb kihasználását, megszüntetve a hálózati szűk keresztmetszeteket, amelyek korábban korlátozhatták az alkalmazások teljesítményét. A 100 GbE így vált a modern, nagy teljesítményű hálózatok gerincévé, alapul szolgálva a jövőbeli innovációknak és sebességnöveléseknek.

A 100 GbE szabványok részletes áttekintése és evolúciója

A 100 Gigabit Ethernet definíciója és megvalósítása nem egyetlen, statikus szabvány eredménye, hanem egy folyamatosan fejlődő sorozaté, amely az iparág igényeihez és a technológiai lehetőségekhez igazodva bővült és finomodott. Az elsődleges szabvány az IEEE 802.3ba volt, amelyet 2010-ben ratifikáltak, és amely lefektette a 100 GbE alapjait. Ez a szabvány számos fizikai réteg (PHY) specifikációt tartalmazott, amelyek különböző átviteli közegekre és távolságokra optimalizáltak.

IEEE 802.3ba (2010): Az első lépések

  • 100GBASE-SR10: Ez a specifikáció multimódusú optikai szálakon (OM3 vagy OM4) keresztül valósította meg a 100 GbE-t. Tíz szálpárt (összesen 20 szálat) használt, ahol mindegyik szálpár 10 Gbps sebességgel működött. Ez a megoldás viszonylag rövid távolságokra (OM3 esetén 100 méterig, OM4 esetén 150 méterig) volt alkalmas, és jellemzően adatközpontokon belüli, rack-ek közötti összeköttetésekre használták. A nagy szálszám miatt azonban viszonylag drága és komplex volt a kábelezés.
  • 100GBASE-LR4: Ezt a specifikációt egymódusú optikai szálakra (OS2) tervezték, és hosszabb távolságok (akár 10 kilométer) áthidalására alkalmas. Négy hullámhossz-csatornát használt (CWDM – Coarse Wavelength Division Multiplexing), ahol mindegyik csatorna 25 Gbps sebességgel továbbított adatot egyetlen szálon. Ez a megoldás kevesebb szálat igényelt (mindössze egy szálpárt), ami ideálissá tette adatközpontok közötti összeköttetésekre vagy távoli helyszínek összekapcsolására.
  • 100GBASE-ER4: Szintén egymódusú optikai szálakra optimalizált, és a 100GBASE-LR4-hez hasonlóan négy CWDM csatornát használt. Azonban lényegesen hosszabb távolságokat (akár 40 kilométert) is képes volt áthidalni, de magasabb költségekkel és energiafogyasztással járt a specifikus optikai modulok miatt.

IEEE 802.3bj (2014): A hibajavítás bevezetése

A 802.3ba szabványt követően az iparág felismerte az előrehibajavítás (FEC – Forward Error Correction) jelentőségét a magasabb sebességű és hosszabb távolságú átvitelek megbízhatóságának növelésében. Az IEEE 802.3bj szabvány bevezette a FEC-et a 100 GbE specifikációkba, különösen a réz alapú (backplane és Twinax kábelek) és az optikai interfészek (például 100GBASE-KR4 és 100GBASE-KP4) esetében. A FEC segít kijavítani az átvitel során fellépő kisebb hibákat anélkül, hogy az adatok újraküldésére lenne szükség, ezzel javítva az áteresztőképességet és a megbízhatóságot.

IEEE 802.3bm (2015): Hatékonyabb multimódusú és újabb egymódusú opciók

A 802.3bm szabvány a 100 GbE technológia egyik legfontosabb fejlesztését hozta el a multimódusú optikai átvitel terén. Célja volt a 100GBASE-SR10 által igényelt nagy szálszám csökkentése, valamint az energiahatékonyság javítása.

  • 100GBASE-SR4: Ez a specifikáció forradalmasította a multimódusú 100 GbE-t azzal, hogy a korábbi 20 szál helyett mindössze 8 szálat (négy szálpárt) használt. Minden szálpár 25 Gbps sebességgel továbbított adatot, így érve el a 100 Gbps aggregált sebességet. Ez jelentősen leegyszerűsítette a kábelezést és csökkentette a költségeket az adatközpontokban. A 100GBASE-SR4 ma az egyik legelterjedtebb 100 GbE megoldás rövid távolságokra (OM3 esetén 70 méterig, OM4 esetén 100 méterig, OM5 esetén 150 méterig).
  • 100GBASE-LR4/ER4 (továbbfejlesztések): Bár a 802.3bm elsősorban az SR4-re fókuszált, a szabvány további finomításokat is tartalmazott a meglévő LR4 és ER4 specifikációkhoz, javítva azok teljesítményét és megbízhatóságát.

IEEE 802.3cd (2018): Rövidszálú és adatközponti optimalizált megoldások

A 802.3cd szabvány a 25 Gbps és 50 Gbps Ethernet kiterjesztéseként született meg, de jelentős hatással volt a 100 GbE-re is, különösen az adatközpontokon belüli, még hatékonyabb és költséghatékonyabb megoldásokra koncentrálva. Ez a szabvány vezette be a PAM4 (Pulse Amplitude Modulation 4-level) modulációt, amely lehetővé teszi, hogy egyetlen jelzőszinten több bitet kódoljanak, így növelve a sávszélességet anélkül, hogy a baud rate-et (a szimbólumok másodpercenkénti számát) drámaian növelnék.

  • 100GBASE-SR1: Ez a specifikáció egyetlen multimódusú szálpárt használ, 100 Gbps sebességgel, PAM4 modulációval. Ez tovább csökkenti a szálszámot és a kábelezési komplexitást, ideális rövid távolságú (OM4 esetén 100 méterig) adatközponti összeköttetésekre.
  • 100GBASE-DR: Egyetlen egymódusú szálpárt használ 100 Gbps sebességgel, szintén PAM4 modulációval. Ez a megoldás adatközponti célokra készült, ahol a hatótávolság általában nem haladja meg az 500 métert, de az egymódusú szálak előnyeit (pl. jövőbeli skálázhatóság) ki lehet használni.

Modulációs technikák és multiplexelés a 100 GbE-ben

A 100 GbE különböző szabványai más-más modulációs technikákat és multiplexelési megközelítéseket alkalmaznak az adott távolsági és költségigények kielégítésére:

  • NRZ (Non-Return-to-Zero): A korábbi Ethernet szabványokban domináns moduláció, ahol minden jelzőszint egy bitet reprezentál (0 vagy 1). A 100GBASE-SR4 és 100GBASE-LR4/ER4 esetében 4×25 Gbps NRZ jeleket használnak.
  • PAM4 (Pulse Amplitude Modulation 4-level): Ahogy említettük, a PAM4 lehetővé teszi, hogy egyetlen szimbólummal 2 bitet kódoljanak (négy különböző feszültségszinttel), megduplázva a bitek számát ugyanazon a baud rate-en. Ez kulcsfontosságú a 100GBASE-SR1 és 100GBASE-DR szabványokhoz, ahol kevesebb sávot vagy szálat használnak. A PAM4 növeli a komplexitást a vevőoldalon és érzékenyebb a zajra, de rendkívül hatékony a sávszélesség-kihasználás szempontjából.

A multiplexelési technikák is kulcsfontosságúak:

  • CWDM (Coarse Wavelength Division Multiplexing): A 100GBASE-LR4 és ER4 által használt technológia, ahol négy különböző, viszonylag távoli hullámhosszon továbbítanak jeleket egyetlen egymódusú szálon.
  • DWDM (Dense Wavelength Division Multiplexing): Bár nem része az alap 100 GbE szabványoknak, a DWDM technológia lehetővé teszi sokkal több (akár 80 vagy több) hullámhossz multiplexelését egyetlen szálon, ami a 100 GbE jelek transzportálására is alkalmas, különösen nagy távolságú, optikai hálózatokban. Ezt jellemzően koherens optikai modulokkal valósítják meg.

A 100 GbE szabványok összefoglaló táblázata

Szabvány Transzceiver Típus Optikai Szál Típus Távolság (max.) Sávok száma / sebesség Moduláció Jellemző Alkalmazás
100GBASE-SR10 (802.3ba) CFP, CFP2, CFP4 (régebbi) Multimódusú (OM3/OM4) 100m (OM3) / 150m (OM4) 10×10 Gbps NRZ NRZ Adatközponti inter-rack (régebbi)
100GBASE-LR4 (802.3ba/bm) QSFP28, CFP, CFP2, CFP4 Egymódusú (OS2) 10 km 4×25 Gbps NRZ (CWDM) NRZ Adatközponti DCI, campus
100GBASE-ER4 (802.3ba/bm) QSFP28, CFP, CFP2, CFP4 Egymódusú (OS2) 40 km 4×25 Gbps NRZ (CWDM) NRZ Adatközponti DCI, MAN
100GBASE-SR4 (802.3bm) QSFP28 Multimódusú (OM3/OM4/OM5) 70m (OM3) / 100m (OM4) / 150m (OM5) 4×25 Gbps NRZ NRZ Adatközponti inter-rack (domináns)
100GBASE-SR1 (802.3cd) QSFP28 Multimódusú (OM4/OM5) 100m (OM4) / 150m (OM5) 1×100 Gbps PAM4 PAM4 Adatközponti intra/inter-rack (újabb)
100GBASE-DR (802.3cd) QSFP28 Egymódusú (OS2) 500 m 1×100 Gbps PAM4 PAM4 Adatközponti DCI (rövid táv)

A 100 Gigabit Ethernet szabványok folyamatos evolúciója, a kezdeti 802.3ba-tól a PAM4-et bevezető 802.3cd-ig, a technológia rugalmasságát és alkalmazkodóképességét demonstrálja a növekvő sávszélesség-igények és a változó költségvetési kényszerek kielégítésére.

A 100 GbE fizikai rétegei és átviteli közegei

A 100 Gigabit Ethernet működése számos fizikai réteg (PHY) specifikáción alapul, amelyek különböző átviteli közegeket és távolságokat támogatnak. A megfelelő közeg kiválasztása kulcsfontosságú a hálózati infrastruktúra tervezésekor, figyelembe véve a távolságot, a költségkeretet, az energiafogyasztást és a jövőbeli bővítési lehetőségeket.

Optikai szálas kábelezés

Az optikai szálak a 100 GbE gerincét képezik, különösen a hosszabb távolságok és a nagy sávszélességű adatközponti összeköttetések esetében. Két fő típusa van:

  • Multimódusú szálak (MMF):
    • OM3 és OM4: Ezek a legelterjedtebb multimódusú száltípusok a 100 GbE-ben. Az OM3 100GBASE-SR4 esetén 70 méterig, az OM4 100 méterig támogatja az átvitelt. Az OM4 jobb modális sávszélességgel rendelkezik, így nagyobb távolságokat vagy nagyobb sebességeket tesz lehetővé.
    • OM5 (Wide Band Multimode Fiber): Ez a legújabb multimódusú száltípus, amelyet speciálisan a SWDM (Short Wavelength Division Multiplexing) technológiákhoz terveztek. Az OM5 több hullámhosszt támogat egyetlen szálon, lehetővé téve a 400 GbE és azon túli sebességeket is, miközben visszamenőlegesen kompatibilis az OM3 és OM4 szabványokkal. 100GBASE-SR4 esetén akár 150 méterig is eléri a hatótávolságot. Az OM5 használata jelentősen csökkentheti a szükséges szálszámot a jövőbeni hálózatokban.
    • Alkalmazás: Elsősorban adatközpontokon belüli, rövidebb távolságú (rack-en belüli, rack-ek közötti, sorok közötti) összeköttetésekre ideális. Jellemzően MPO/MTP csatlakozókat használnak, amelyek több szálat (pl. 8, 12, 24) tartalmaznak egyetlen csatlakozóban, megkönnyítve a nagy sűrűségű telepítéseket.
  • Egymódusú szálak (SMF):
    • OS2: Az egymódusú szálak (OS2 osztályba tartozók) sokkal nagyobb távolságokra (akár 10-40 km vagy még több, a transceiver típusától függően) alkalmasak, mint a multimódusúak, mivel a fény egyetlen útvonalon halad, minimalizálva a diszperziót.
    • Alkalmazás: Hosszabb távolságú adatközponti összeköttetésekre (pl. campus hálózatok, metróhálózatok), adatközpontok közötti összekötésekre (DCI – Data Center Interconnect) és szolgáltatói gerinchálózatokra használják. Jellemzően LC csatlakozókat használnak, bár az MPO/MTP is előfordulhat a nagyobb sűrűségű egymódusú alkalmazásoknál.

Direkt csatolt kábelek (DAC)

A Direkt Csatolt Kábelek (DAC) réz alapú kábelek, amelyek a transzceivereket (pl. QSFP28) közvetlenül integrálják a kábel végébe. Két fő típusuk van:

  • Passzív DAC-ok: Ezek a kábelek nem tartalmaznak aktív elektronikus alkatrészeket, és a jelminőség romlása miatt korlátozott a hosszuk (jellemzően 0.5-5 méter). Költséghatékonyak és alacsony energiafogyasztásúak.
  • Aktív DAC-ok: Ezek tartalmaznak beépített jelerősítő elektronikát, ami lehetővé teszi számukra a passzív DAC-oknál nagyobb távolságok áthidalását (akár 7-15 méter). Bár drágábbak és több energiát fogyasztanak, mint a passzív társaik, még mindig költséghatékonyabbak lehetnek, mint az optikai megoldások rövid távolságokon.
  • Alkalmazás: A DAC kábelek ideálisak a rack-en belüli összeköttetésekre, például szerverek és Top-of-Rack (ToR) kapcsolók között, vagy egy rack-en belüli kapcsolók között. Alacsony késleltetésük és költséghatékonyságuk miatt népszerűek az adatközpontokban.

Aktív Optikai Kábelek (AOC)

Az Aktív Optikai Kábelek (AOC) egy hibrid megoldást jelentenek, amelyek optikai szálakat használnak az adatátvitelhez, de a kábel végén lévő csatlakozókba integrált optikai-elektromos átalakítókat tartalmaznak. Ez azt jelenti, hogy a kábel nem cserélhető transzceiverekkel működik, hanem egy komplett egységet képez.

  • Előnyök:
    • Hosszabb távolságokat képesek áthidalni, mint a DAC-ok (akár 100 méterig multimódusú szálon).
    • Vékonyabbak és rugalmasabbak, mint a réz DAC-ok, ami megkönnyíti a kábelezést a sűrű rack-ekben.
    • Kisebb energiafogyasztás, mint a különálló optikai transzceiver + optikai kábel kombináció.
    • Immunisak az elektromágneses interferenciára.
  • Hátrányok:
    • Drágábbak, mint a DAC-ok.
    • Nem cserélhető transzceiverek, ami korlátozza a rugalmasságot.
    • A kábel hossza fix.
  • Alkalmazás: Az AOC-k népszerűek az adatközpontokban a rack-ek közötti összeköttetésekhez, vagy olyan esetekben, ahol a DAC-ok hossza már nem elegendő, de az optikai transzceiverek és kábelek teljes költsége túl magas lenne. Jellemzően a 100GBASE-SR4 szabványhoz használják.

A megfelelő fizikai réteg kiválasztása jelentős hatással van a hálózat teljesítményére, költségeire és skálázhatóságára. Míg a DAC-ok és AOC-k költséghatékony megoldást nyújtanak rövid távolságokra, az optikai szálak (különösen az egymódusúak) elengedhetetlenek a nagyobb távolságok és a jövőbeni sebességnövelések támogatásához.

Adatközponti architektúrák és a 100 GbE szerepe

A 100 GbE forradalmasítja az adatközponti hálózati teljesítményt.
A 100 GbE jelentősen növeli az adatközpontok sebességét, lehetővé téve a gyorsabb adatfeldolgozást és nagyobb skálázhatóságot.

A modern adatközpontok gerincét a nagy sávszélességű és alacsony késleltetésű hálózatok alkotják. A 100 Gigabit Ethernet kulcsszerepet játszik ezen infrastruktúrák kialakításában, lehetővé téve a nagy teljesítményű számítási és tárolási erőforrások hatékony kihasználását. A hagyományos háromrétegű hálózati architektúrák (hozzáférési, aggregációs, mag) korlátai egyre nyilvánvalóbbá váltak az adatközpontok növekedésével, ami az újabb, laposabb, skálázhatóbb topológiák, mint a Spine-Leaf architektúra elterjedéséhez vezetett.

Spine-Leaf architektúra

A Spine-Leaf architektúra egy kétlépcsős, skálázható hálózati modell, amely radikálisan csökkenti a késleltetést és növeli az áteresztőképességet az adatközpontokon belül. Ebben a modellben:

  • Leaf (levél) kapcsolók: Ezek a kapcsolók közvetlenül csatlakoznak a szerverekhez és a tárolórendszerekhez (tipikusan Top-of-Rack, ToR, kapcsolók). Fő feladatuk a szerverek hálózati csatlakozásának biztosítása.
  • Spine (gerinc) kapcsolók: Ezek a kapcsolók alkotják a hálózat gerincét, és összekötik az összes Leaf kapcsolót egymással. A Spine kapcsolók között nincs közvetlen összeköttetés.

A 100 GbE itt játszik kulcsszerepet: a Leaf és Spine rétegek közötti összeköttetések, valamint a Spine kapcsolók közötti virtuális összeköttetések gyakran 100 GbE portokon keresztül valósulnak meg. Ennek köszönhetően minden Leaf kapcsolóhoz egyenletes sávszélességgel és alacsony késleltetéssel férhetnek hozzá a Spine rétegen keresztül, ami ideális a kelet-nyugati (szerver-szerver közötti) forgalomhoz, amely az adatközpontokban domináns. A 100 GbE lehetővé teszi, hogy kevesebb fizikai porttal nagyobb aggregált sávszélességet biztosítsanak, optimalizálva a kábelezést és csökkentve a hardverigényt.

Top-of-Rack (ToR) kapcsolók és inter-rack/intra-rack összeköttetések

A Top-of-Rack (ToR) kapcsolók a szerverrack-ek tetején helyezkednek el, és közvetlen csatlakozást biztosítanak a rack-ben található összes szerverhez. Korábban ezek a kapcsolók jellemzően 10 GbE uplinkeket használtak az aggregációs réteg felé. A 100 GbE megjelenésével azonban a ToR kapcsolók uplinkjei is 100 GbE-re frissülhetnek, jelentősen növelve a rack kimenő sávszélességét. Ez kritikus fontosságú a modern, nagy sűrűségű szerverek és a virtualizált környezetek számára, ahol egyetlen fizikai szerver több virtuális gépet vagy konténert futtathat, amelyek együttesen hatalmas sávszélességet igényelnek.

  • Intra-rack (racken belüli) összeköttetések: Jellemzően 10 GbE vagy 25 GbE portokat használnak a szerverek és a ToR kapcsolók között. A 100 GbE DAC kábelek vagy AOC-k használhatók a ToR kapcsolók és a nagyobb teljesítményű szerverek közötti közvetlen kapcsolatokhoz, ha a racken belül is magas sávszélességre van szükség.
  • Inter-rack (rackek közötti) összeköttetések: A ToR kapcsolók és a Spine kapcsolók közötti, valamint a Spine kapcsolók közötti összeköttetések, amelyek a 100 GbE optikai szálakon (SR4, LR4, ER4) vagy AOC-ken keresztül valósulnak meg. Ezek biztosítják a nagy sebességű kommunikációt az adatközpont különböző rack-jei és szekciói között.

A virtualizáció és a felhőalapú szolgáltatások igényei

A virtualizáció és a felhőalapú szolgáltatások dominanciája jelentősen megváltoztatta az adatközponti hálózatok forgalmi mintázatait. A korábbi kliens-szerver modell, ahol a forgalom túlnyomórészt észak-déli irányú (felhasználóktól a szerverek felé és vissza) volt, átadta helyét a kelet-nyugati (szerver-szerver közötti) forgalomnak. Ez a változás a következő okok miatt következett be:

  • Virtuális gépek és konténerek közötti kommunikáció: Egyetlen fizikai szerveren belül vagy különböző szerverek között futó virtuális erőforrások közötti adatcsere.
  • Elosztott alkalmazások és mikroszolgáltatások: Az alkalmazások funkcionalitása több, egymással kommunikáló komponensre oszlik el, amelyek különböző szervereken futhatnak.
  • Tárolási hálózatok: A hálózati tárolók (pl. SAN, NAS, Object Storage) felé irányuló és onnan érkező nagy mennyiségű adatforgalom.

A 100 GbE kritikus fontosságú ezen kelet-nyugati forgalom hatékony kezelésében. Lehetővé teszi, hogy a virtuális gépek és konténerek akadálytalanul kommunikáljanak, biztosítva a felhőalapú alkalmazások és szolgáltatások optimális teljesítményét. A megnövelt sávszélesség csökkenti a késleltetést, ami kulcsfontosságú az adatbázis-tranzakciók, a valós idejű analitika és a nagy teljesítményű számítási feladatok (HPC) számára.

Big Data és AI/ML számítások hatása

A Big Data analitika és a Mesterséges Intelligencia (MI) / Gépi Tanulás (ML) számítási feladatok robbanásszerűen növelték az adatközpontok sávszélesség-igényét. Ezek a feladatok hatalmas adathalmazokat dolgoznak fel, gyakran elosztott rendszerekben, ahol a nyers adatok, a köztes eredmények és a modellfrissítések folyamatosan áramlanak a hálózaton keresztül. A GPU-k és más speciális gyorsítók közötti kommunikáció is rendkívül sávszélesség-igényes.

A 100 GbE alapvető fontosságú ezen terhelések támogatásában. Lehetővé teszi a nagy adathalmazok gyors áthelyezését a tárolóból a számítási csomópontokra, és a feldolgozott eredmények visszajuttatását. A hálózati szűk keresztmetszetek minimalizálásával a 100 GbE hozzájárul a Big Data és MI/ML projektek gyorsabb végrehajtásához, és optimalizálja a drága számítási erőforrások kihasználtságát. Az NVLink és RoCE (RDMA over Converged Ethernet) technológiák, amelyek a hálózati késleltetés minimalizálására és a CPU terhelésének csökkentésére irányulnak, szintén profitálnak a 100 GbE által biztosított nagy sávszélességből és alacsony késleltetésből.

A 100 GbE komponensei és hardveres megvalósítása

A 100 Gigabit Ethernet hálózatok kiépítéséhez számos speciális hardverkomponensre van szükség, amelyek képesek kezelni a hatalmas adatátviteli sebességet. Ezek a komponensek együttműködve biztosítják a zökkenőmentes és megbízható működést.

Transceiverek (optikai adó-vevők)

A transzceiverek, vagy optikai adó-vevők, a hálózati eszközök (kapcsolók, routerek, NIC-ek) portjaiba illeszthető modulok, amelyek az elektromos jeleket optikai jelekké alakítják át, és fordítva. A 100 GbE-ben számos formafaktor létezik, de az idők során egy dominánssá vált:

  • QSFP28 (Quad Small Form-factor Pluggable 28): Ez a formafaktor vált a 100 GbE de facto szabványává. Négy 25 Gbps-os sávot használ, így éri el a 100 Gbps aggregált sebességet. A QSFP28 rendkívül népszerű kompakt mérete, alacsony energiafogyasztása és viszonylag alacsony költsége miatt. Támogatja a 100GBASE-SR4 (multimódusú), 100GBASE-LR4 (egymódusú), 100GBASE-ER4 (egymódusú, kiterjesztett hatótávolságú), 100GBASE-PSM4 (egymódusú, párhuzamos szálú), 100GBASE-CWDM4 (egymódusú, CWDM) és 100GBASE-DR (egymódusú, PAM4) szabványokat. A QSFP28 modulok gyakran képesek 4×25 GbE breakout kábelekkel is működni, lehetővé téve egyetlen 100 GbE port 4 darab 25 GbE porttá alakítását.
  • CFP, CFP2, CFP4 (C Form-factor Pluggable): Ezek a korábbi generációs, nagyobb méretű transzceiverek voltak az első 100 GbE modulok. A CFP volt a legnagyobb, majd a CFP2 és CFP4 fokozatosan csökkentette a méretet és az energiafogyasztást. Bár még mindig használatban vannak bizonyos régebbi vagy speciális alkalmazásokban (pl. távolsági optikai átvitelben), a QSFP28 nagyrészt felváltotta őket a mainstream adatközponti alkalmazásokban a jobb méret/teljesítmény/költség arány miatt.

A transzceiverek kiválasztása kulcsfontosságú, mivel meghatározza az átviteli közeg típusát (réz, multimódusú optikai, egymódusú optikai) és az elérhető távolságot. Az energiafogyasztás és a hőtermelés is fontos szempont, különösen a nagy sűrűségű kapcsolók esetében.

Hálózati interfész kártyák (NIC-ek)

A szervereknek is képesnek kell lenniük a 100 Gbps sebességű adatátvitelre. Ehhez speciális 100 GbE hálózati interfész kártyákra (NIC-ekre) van szükség. Ezek a kártyák tipikusan PCIe (Peripheral Component Interconnect Express) bővítőhelyekre illeszkednek a szerverekben. A modern 100 GbE NIC-ek fejlett funkciókat kínálnak, mint például:

  • Hardveres offload: Különböző hálózati protokollok (pl. TCP/IP) feldolgozásának áthelyezése a CPU-ról a NIC-re, felszabadítva a CPU erőforrásait az alkalmazások számára.
  • RDMA (Remote Direct Memory Access) támogatás: Lehetővé teszi az adatok közvetlen átvitelét a hálózati adapterek között, anélkül, hogy a CPU vagy az operációs rendszer közbeavatkozna, drámaian csökkentve a késleltetést és a CPU terhelését. Ez kulcsfontosságú a HPC, Big Data és MI/ML környezetekben (pl. RoCE – RDMA over Converged Ethernet).
  • Virtualizációs funkciók: SR-IOV (Single Root I/O Virtualization) támogatás, amely lehetővé teszi a virtuális gépek számára, hogy közvetlenül hozzáférjenek a NIC hardveréhez, javítva a teljesítményt és csökkentve a virtualizációs overheadet.

Hálózati kapcsolók (switches)

A 100 GbE hálózati kapcsolók az adatközpontok gerincét alkotják, biztosítva a nagy sebességű összeköttetést a szerverek, tárolók és más hálózati eszközök között. Ezek a kapcsolók a következő jellemzőkkel bírnak:

  • Port sűrűség: Képesek nagy számú 100 GbE portot biztosítani egy kompakt formában (pl. 32 vagy 64 darab 100 GbE port egy 1U méretű egységben).
  • Áteresztőképesség (Throughput): A kapcsoló teljes belső sávszélessége, amely elegendő ahhoz, hogy az összes portot maximális sebességgel kezelje (non-blocking). Egy 32 portos 100 GbE kapcsoló például 3.2 Tbps (terabit per second) aggregált áteresztőképességgel rendelkezik.
  • ASIC-ek (Application-Specific Integrated Circuits): A modern nagy teljesítményű kapcsolók a speciálisan tervezett ASIC chipekre épülnek, amelyek extrém sebességgel és alacsony késleltetéssel képesek a csomagok továbbítására és a hálózati funkciók (pl. routing, ACL-ek) kezelésére. A Broadcom Tomahawk, Mellanox Spectrum vagy Intel Tofino chipek a 100 GbE és 400 GbE kapcsolók alapját képezik.
  • Fejlett funkciók: Támogatják a Layer 2 (VLAN,
Share This Article
Leave a comment

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük