Polska
Katalog   /   Komputery   /   Sprzęt sieciowy   /   Switche

Porównanie MikroTik CRS328-24P-4S+RM vs MikroTik CSS326-24G-2S+RM

Dodaj do porównania
MikroTik CRS328-24P-4S+RM
MikroTik CSS326-24G-2S+RM
MikroTik CRS328-24P-4S+RMMikroTik CSS326-24G-2S+RM
Porównaj ceny 21Porównaj ceny 28
TOP sprzedawcy
Główne
Obsługuje filtrowanie adresów MAC i przekierowywanie portów. Jeden port wejściowy PoE.
Rodzajzarządzalny warstwy 3 (L3)zarządzalny warstwy 2 (L2)
MontażRACKRACK
Przepustowość64 Gb/s
Rozmiar tablicy adresów MAC16K16K
Porty
Gigabit Ethernet24 szt.24 szt.
SFP+ (światłowód)4 szt.2 szt.
Uplink4 szt.2 szt.
Typ UplinkSFP+SFP+
Port konsolowy
Funkcje i możliwości
Zarządzanie
SSH
Telnet
przeglądarka www
SNMP
 
 
przeglądarka www
SNMP
Podstawowe funkcje
serwer DHCP
Link Aggregation
VLAN
ochrona przed pętlami
ograniczenie prędkości dostępu
 
 
VLAN
ochrona przed pętlami
ograniczenie prędkości dostępu
Routing
Statyczny
Standardy
RIP
OSPF
BGP, VRRP, ECMP
 
 
 
PoE
PoE (wyjście)802.3af/at
Liczba wyjść z obsługą PoE24 szt.
Moc wyjściowa PoE30 W
Moc całkowita PoE450 W
Dane ogólne
Zasilaczwbudowanyzewnętrzny
Napięcie100 – 240 V8 – 30 V
Moc19 W
Temperatura robocza-20 °C ~ +60 °C-20 °C ~ +70 °C
Wymiary (SxGxW)443x305x44 mm440x144x44 mm
Waga1650 g1083 g
Data dodania do E-Kataloglistopad 2018listopad 2017

Rodzaj

- Niekontrolowany. Najprostszy typ przełącznika, który nie ma, jak sama nazwa wskazuje, możliwości zarządzania; a możliwość monitorowania stanu urządzenia ogranicza się zazwyczaj do najprostszych wskaźników w postaci żarówek (zasilanie, aktywność portu). Zaletami takich modeli są autonomia, łatwość użytkowania i niski koszt. Główna wada tego typu jest oczywista - niemożność dostosowania parametrów pracy. Przełączniki niezarządzane doskonale nadają się do małych sieci LAN, takich jak dom lub małe biuro, gdzie nie są wymagane żadne specjalne poprawki administracyjne; jednak nie powinny być używane w dużych organizacjach.

- Konfigurowalny. Ta kategoria obejmuje przełączniki, które mogą zmieniać niektóre parametry pracy. Jednocześnie możliwości takich zmian są znacznie mniejsze niż w modelach zarządzanych, a sprawa zwykle ogranicza się do wyłączania poszczególnych portów, przełączania standardowych prędkości na złącza Ethernet (np. ze 100 Mb/s na 10 Mb/s) i najprostszego monitoringu narzędzia takie jak przeglądanie statystyk sieciowych. Ponadto po rekonfiguracji urządzenie zwykle wymaga ponownego uruchomienia - innymi słowy nie ma możliwości kontrolowania działania przełącznika „w locie”. Niemniej jednak do tego typu mogą należeć profesjonalne modele przeznaczone dla dużych sieci.

- Zarządzane 2 poziomy. Termin „zarządzany” oznacza, że przełącznik ma możliwość re...konfiguracji w locie, w przeciwieństwie do konfigurowalnych modeli opisanych powyżej. Ponadto ogólna funkcjonalność takich urządzeń jest w większości przypadków znacznie szersza. A „poziom 2” oznacza, że urządzenie obsługuje tylko drugą warstwę modelu sieci OSI – kanałową, która odpowiada za adresowanie fizyczne. W praktyce oznacza to, że przełącznik może pracować z adresami MAC podłączonych urządzeń, ale adresowanie IP przekracza jego możliwości.

- Kontrolowane 3 poziomy. Rodzaj zarządzanych przełączników (patrz wyżej) obsługujących trzecią warstwę modelu sieci OSI. Ta warstwa odpowiada za logiczne adresowanie i routing, które umożliwiają urządzeniu pracę z adresami IP. Z tego powodu modele tego typu uważane są za najbardziej zaawansowane, często zapewniają nie tylko tradycyjne możliwości „przełączników”, ale także osobne funkcje routerów. Z drugiej strony obfitość możliwości znacząco wpływa na cenę. Takie przełączniki są powszechnie stosowane w centrach danych, firmach telekomunikacyjnych i innych miejscach związanych z profesjonalnym użytkowaniem sieci; nie ma sensu kupować takiego urządzenia do domu lub małego biura.

Przepustowość

Przepustowość przełącznika to maksymalna ilość ruchu, jaką może obsłużyć. Wskazany w gigabitach na sekundę.

Parametr ten bezpośrednio zależy od liczby portów sieciowych w urządzeniu (z wyłączeniem Uplink). W rzeczywistości, nawet jeśli przepustowość nie jest wymieniona w charakterystyce, nadal można ją obliczyć za pomocą następującego wzoru: liczba portów pomnożona przez przepustowość pojedynczego portu i pomnożona przez dwa (ponieważ uwzględniany jest zarówno ruch przychodzący, jak i wychodzący ). Na przykład model z 8 gniazdami Gigabit Ethernet i 2 portami SFP będzie miał przepustowość (8 * 1 + 2 * 1) * 2 = 20 Gb/s.

Wybór tego wskaźnika jest dość oczywisty: należy oszacować szacunkowe wielkości ruchu w obsługiwanym segmencie sieci i upewnić się, że przepustowość przełącznika będzie się na niego nakładać z marginesem co najmniej 10-15% (da to dodatkową gwarancję w przypadku sytuacji awaryjnych). Jednocześnie, jeśli planujesz często pracować przy wysokich, zbliżonych do maksymalnych obciążeniach, nie zaszkodzi wyjaśnienie innej cechy, takiej jak wewnętrzna przepustowość przełącznika. Jest to zwykle podane w szczegółowym opisie technicznym, a jeśli ta wartość jest mniejsza niż całkowita przepustowość, mogą pojawić się poważne problemy podczas pracy przy znacznych obciążeniach.

SFP+ (światłowód)

Liczba portów optycznych portów SFP+, przewidziana w konstrukcji przełącznika. Należy zaznaczyć, że chodzi o zwykłe porty sieciowe; wejścia Uplink również mogą używać tego interfejsu, jednak ich liczba jest podawana osobno nawet w tym przypadku (patrz poniżej).

Ogólne zalety włókna optycznego w porównaniu z konwencjonalnym kablem Ethernet to większy zasięg i niewrażliwość na zakłócenia elektromagnetyczne. A konkretniej SFP+ jest rozwinięciem oryginalnego standardu SFP; w przełącznikach takie złącza zwykle działają z prędkością 10 GB/s. Jeśli chodzi o liczbę takich portów, pomimo wszystkich swoich zalet, włókno optyczne w sprzęcie sieciowym jest używane dość rzadko. Dlatego największą popularnością cieszą się przełączniki na 1 - 2, rzadziej 4 złącza SFP+, choć może być ich więcej. Warto również wziąć pod uwagę, że w przełącznikach mogą być używane tzw. złącza combo, łączące SFP+ i RJ-45; obecność takich portów jest określana w uwagach, są one uwzględniane zarówno przy obliczaniu RJ-45, jak i przy obliczaniu SFP+.

Uplink

Liczba łączy nadrzędnych przewidzianych w konstrukcji przełącznika.

„Uplink” w tym przypadku nie jest typem, ale specjalizacją konektora: jest to nazwa interfejsu sieciowego, za pośrednictwem którego przełącznik (i podłączone do niego urządzenia sieciowe) komunikuje się z sieciami zewnętrznymi (w tym Internetem) lub siecią segmenty. Innymi słowy, jest to rodzaj „bramy”, przez którą przekazywany jest cały ruch z segmentu sieci obsługiwanego przez przełącznik. Uplink, w szczególności, może być używany do łączenia się z podobnym „przełącznikiem” (dla poziomej rozbudowy sieci) lub z urządzeniem wyższego poziomu (takim jak przełącznik główny).

W związku z tym liczba łączy w górę to maksymalna liczba połączeń zewnętrznych, które przełącznik może zapewnić bez użycia dodatkowego sprzętu. Konkretny typ takiego złącza może być inny, ale zwykle jest to jedna z odmian LAN lub SFP; zobacz „Typ łącza nadrzędnego”, aby uzyskać szczegółowe informacje.

Port konsolowy

Obecność portu konsoli w przełączniku. Złącze to służy do sterowania ustawieniami urządzenia z osobnego komputera, który pełni rolę panelu sterowania - konsoli. Zaletą tego typu operacji jest to, że dostęp do funkcji przełącznika jest niezależny od warunków sieciowych; ponadto możesz użyć specjalnych narzędzi na konsoli, które zapewniają bardziej rozbudowane możliwości niż zwykły interfejs sieciowy lub protokoły sieciowe (patrz „Sterowanie”). Najczęściej port konsoli wykorzystuje złącze RS-232.

Zarządzanie

Metody i protokoły zarządzania obsługiwane przez przełącznik.

- SSH. Skrót od Secure Shell, tj. „Bezpieczna powłoka”. SSH zapewnia dość wysoki stopień bezpieczeństwa, ponieważ szyfruje wszystkie przesyłane dane, m.in. Hasła. Nadaje się do zarządzania prawie wszystkimi głównymi protokołami sieciowymi, ale do działania wymaga specjalnego narzędzia na komputerze sterującym.

- Telnet. Protokół kontroli sieci, który można skonfigurować za pomocą tekstowego wiersza poleceń. Nie stosuje szyfrowania i nie chroni przesyłanych danych, a także pozbawiony jest interfejsu graficznego, dlatego w wielu obszarach jest wypierany przez opcje bezpieczniejsze (SSH) lub wygodne (webowe). Jednak nadal jest używany w nowoczesnym sprzęcie sieciowym.

- Interfejs sieciowy. Funkcja ta umożliwia otwarcie interfejsu zarządzania przełącznikami w zwykłej przeglądarce internetowej. Główną wygodą interfejsu internetowego jest to, że nie wymaga dodatkowego oprogramowania - wystarczy przeglądarka (i jest dostępna w każdym "szanującym się" nowoczesnym systemie operacyjnym). Dzięki temu, znając adres urządzenia, login i hasło, można zarządzać ustawieniami z niemal każdego komputera w sieci (o ile oczywiście w parametrach dostępu nie określono inaczej).

- SNMP. Skrót od Simple Network Management Protocol, tj. "Simple Network Management Protocol...". Jest to standardowa część ogólnego protokołu TCP/IP, na której zbudowany jest zarówno Internet, jak i wiele sieci lokalnych. Wykorzystuje dwa rodzaje oprogramowania - "menedżerów" na komputerach sterujących i "agentów" na komputerach kontrolowanych (w tym przypadku na routerze). Bezpieczeństwo jest stosunkowo niskie, ale SNMP może być używane do prostych zadań zarządzania.

Pamiętaj, że ta lista nie jest wyczerpująca — nowoczesne przełączniki mogą zapewniać inne możliwości zarządzania, na przykład obsługę zastrzeżonych narzędzi i specjalnych technologii tego samego producenta.

Podstawowe funkcje

- Serwer DHCP. Funkcja ułatwiająca sterowanie adresami IP urządzeń podłączonych do przełącznika. Prawidłowa praca urządzenia sieciowego jest niemożliwa bez własnego adresu IP; a obsługa DHCP umożliwia przypisanie tych adresów ręcznie lub w pełni automatycznie. W takim przypadku administrator może ustawić dodatkowe parametry dla trybu automatycznego (zakres adresów, maksymalny czas użytkowania jednego adresu). I nawet w trybie całkowicie ręcznym praca z adresami odbywa się tylko za pomocą samego przełącznika (podczas gdy bez DHCP parametry te musiałyby być zapisane w ustawieniach każdego urządzenia w sieci).

- Wsparcie sztaplowania. Możliwość obsługi urządzenia w trybie stosu. Stos składa się z kilku przełączników, postrzeganych przez sieć jako jeden „przełącznik”, z jednym adresem MAC, jednym adresem IP i całkowitą liczbą złączy równą całkowitej liczbie portów we wszystkich zaangażowanych urządzeniach. Funkcja ta jest przydatna, jeśli chcesz zbudować dużą sieć, w której brakuje możliwości jednego „przełącznika”, ale nie chcesz komplikować topologii.

- Agregacja łączy. Przełącz obsługę technologii agregacji łączy. Technologia ta pozwala na połączenie kilku równoległych fizycznych kanałów komunikacyjnych w jeden logiczny, co zwiększa szybkość i niezawodność połączenia. Mówiąc najprościej, przełącznik z taką funkcją można podłączyć do innego urządzenia (na p...rzykład routera) nie jednym kablem, ale dwoma lub nawet kilkoma kablami jednocześnie. W tym przypadku wzrost prędkości następuje z powodu sumowania przepustowości wszystkich kanałów fizycznych; jednak ogólna prędkość może być mniejsza niż suma prędkości - z drugiej strony łączenie kilku stosunkowo wolnych złączy jest często tańsze niż używanie sprzętu z bardziej zaawansowanym pojedynczym interfejsem. Wzrost niezawodności odbywa się, po pierwsze, poprzez rozłożenie całkowitego obciążenia na oddzielne kanały fizyczne, a po drugie, dzięki „gorącej” nadmiarowości: awaria jednego portu lub kabla może zmniejszyć prędkość, ale nie prowadzi do całkowitego przerwanie połączenia, ale po wznowieniu działania kanał jest automatycznie aktywowany.
Należy zauważyć, że zarówno standardowy protokół LACP, jak i niestandardowe, zastrzeżone technologie mogą być używane do agregacji łączy (ta ostatnia jest typowa na przykład dla przełączników Cisco). Ponadto istnieje wiele alternatywnych nazw dla tej technologii — trunking portów, łączenie łączy itp. czasami różnica tkwi tylko w nazwie, czasami pojawiają się niuanse techniczne. Wszystkie te szczegóły należy wyjaśnić osobno.

- VLAN. Przełącznik obsługuje funkcję VLAN - wirtualne sieci lokalne. W tym przypadku znaczeniem tej funkcji jest możliwość tworzenia oddzielnych logicznych (wirtualnych) sieci lokalnych w ramach fizycznego „obszaru lokalnego”. W ten sposób można np. podzielić działy w dużej organizacji, tworząc dla każdego z nich własną sieć lokalną. Organizacja VLAN może zmniejszyć obciążenie sprzętu sieciowego, a także zwiększyć stopień ochrony danych.

- Ochrona pętli. Zabezpieczenie pętli w przełączniku. Pętlę w tym przypadku można opisać jako sytuację, w której ten sam sygnał jest wyzwalany w sieci w nieskończonej pętli. Może to wynikać z niewłaściwego okablowania, użycia nadmiarowych łączy i innych przyczyn, ale w każdym przypadku takie zjawisko może „uśpić” sieć, co oznacza, że jest wysoce niepożądane. Ochrona pozwala uniknąć pętli — zwykle poprzez wyłączenie zapętlonych portów.

- Ograniczenie szybkości dostępu. Możliwość ograniczenia szybkości wymiany danych dla poszczególnych portów przełącznika. Dzięki temu możliwe jest zmniejszenie obciążenia sieci i zapobieganie „zatykaniu” kanału przez poszczególne terminale.

Pamiętaj, że ta lista nie ogranicza się do: nowoczesne przełączniki mogą mieć inne funkcje.

Statyczny

Przypomnijmy, że routing jest definicją najlepszej ścieżki, wzdłuż której każdy pakiet danych może być dostarczony do odbiorcy. W tym celu wykorzystywane są specjalne tabele, które są przechowywane w pamięci sterującego urządzenia sieciowego z funkcją routingu. Zgodnie z metodą wypełniania tych tabel, procedura ta jest podzielona na dwa główne typy - statyczny i dynamiczny.

Routing statyczny to metoda, w której wszystkie trasy danych (wpisy w tablicy routingu) są ręcznie rejestrowane przez administratora; dotyczy to zarówno początkowego tworzenia tabeli, jak i wprowadzania w niej zmian w przypadku zmiany konfiguracji sieci. Główną zaletą tej metody jest minimalne obciążenie procesora przełącznika, co pozytywnie wpływa na szybkość i niezawodność sieci. Główne wady routingu statycznego wiążą się z koniecznością ręcznego sterowania. Tak więc im szersza sieć, tym bardziej złożone i pracochłonne jest zarządzanie nią; nieuwaga administratora może stać się dodatkowym powodem awarii; a diagnoza niektórych problemów jest zauważalnie trudna - na przykład w przypadku awarii na poziomie łącza trasa statyczna pozostaje widoczna jako aktywna, chociaż żadne dane nie są przesyłane.

Standardy

Routing statyczny odbywa się zgodnie ze standardowym schematem, jednak do routingu dynamicznego używane są różne protokoły. Idea dynamiki polega na tym, że tabela tras jest stale edytowana programowo, w trybie automatycznym. W tym celu urządzenia sieciowe (a dokładniej działające na nich programy trasujące) wymieniają między sobą informacje o usługach, na podstawie których do tablicy zapisywane są optymalne adresy. Jednym z podstawowych pojęć routingu dynamicznego jest metryka - złożony wskaźnik, który określa warunkową odległość do określonego adresu (innymi słowy, jak blisko jest ta lub inna trasa od optymalnej). Różne protokoły wykorzystują różne sposoby definiowania i udostępniania metryk; oto niektóre z najczęstszych opcji:

ODP Jeden z najczęściej używanych protokołów routingu dynamicznego; został po raz pierwszy zastosowany w 1969 roku w ARPANET, który stał się prekursorem współczesnego Internetu. Odnosi się do tzw. algorytmów wektora odległości: metryka w protokole RIP jest wskazywana przez wektor odległości między routerem a węzłem sieci, a każdy taki wektor zawiera informację o kierunku przesyłania danych i liczbie „przeskoków” (sekcje między węzłami pośrednimi) do odpowiedniego urządzenia sieciowego. Podczas korzystania z protokołu RIP metryki są przesyłane przez sieć co 30 sekund; jednocześnie, po otrzymaniu od „sąsiada” danych o znanych mu węzłach, router dokonuje szeregu wyjaśnień i uzupełnień do tych danych (...w szczególności informacji o sobie i bezpośrednio podłączonych urządzeniach sieciowych) i przesyła dalej. Po otrzymaniu aktualnych danych w całej sieci router wybiera dla każdego węzła najkrótszą trasę z kilku otrzymanych alternatyw i zapisuje ją w tablicy routingu.
Zaletami protokołu RIP są łatwość implementacji i niewymagające wymagania. Z drugiej strony słabo nadaje się do dużych sieci: maksymalna liczba przeskoków w RIP jest ograniczona do 15, a komplikacja topologii prowadzi do znacznego wzrostu ruchu usług i obciążenia części obliczeniowej sprzętu - w rezultacie rzeczywista wydajność sieci spada. W związku z tym bardziej zaawansowane protokoły, takie jak (E)IGRP i OSPF (patrz poniżej), stały się bardziej powszechne w zastosowaniach profesjonalnych.

— IGRP. Zastrzeżony protokół routingu stworzony przez Cisco dla systemów autonomicznych (innymi słowy sieci lokalnych z jedną polityką routingu z Internetem). Podobnie jak RIP (patrz wyżej), odnosi się do protokołów wektora odległości, jednak używa znacznie bardziej skomplikowanej procedury określania metryki: uwzględnia nie tylko liczbę przeskoków, jednak także opóźnienie, przepustowość, rzeczywiste przeciążenie sieci , itp. Ponadto protokół implementuje szereg specyficznych mechanizmów poprawiających niezawodność komunikacji. Dzięki temu protokół IGRP doskonale nadaje się nawet do dość złożonych sieci o rozbudowanej topologii.

— EIGRP. Ulepszony i unowocześniony następca opisanego powyżej protokołu IGRP, opracowanego przez to samo Cisco. Stworzony jako alternatywa dla OSPF (patrz poniżej), łączy właściwości protokołów i standardów wektora odległości ze śledzeniem stanu łącza. Jedną z głównych zalet w stosunku do oryginalnego protokołu IGRP było ulepszenie algorytmu rozpowszechniania danych o zmianach topologii w sieci, dzięki czemu prawdopodobieństwo wystąpienia pętli (charakterystyczne dla wszystkich standardów wektora odległości) zostało zredukowane niemal do zera. A wśród różnic między tym protokołem a OSPF, wyższa wydajność i bardziej zaawansowany algorytm obliczania metryk są deklarowane przy mniejszej złożoności konfiguracji i wymaganiach dotyczących zasobów.

OSPF. Otwarty protokół routingu systemu autonomicznego stworzony przez IETF (Internet Design Council) i zaimplementowany po raz pierwszy w 1988 roku. Odnosi się do protokołów ze śledzeniem stanu łącza, do budowania tras wykorzystuje tzw. algorytm Dijkstry (algorytm wyszukiwania najkrótszych ścieżek). Proces routingu OSPF jest następujący. Początkowo router komunikuje się z podobnymi urządzeniami, ustanawiając „relację sąsiada”; sąsiedzi to routery w tej samej strefie autonomicznej. Następnie sąsiedzi wymieniają między sobą metryki, synchronizując dane, a po takiej synchronizacji wszystkie routery otrzymują kompletną bazę danych stanu wszystkich łączy w sieci (LSDB). Już na podstawie tej bazy każde z tych urządzeń buduje własną tablicę tras przy użyciu algorytmu Dijkstry. Główne zalety OSPF to duża szybkość (szybkość konwergencji), wysoki stopień optymalizacji wykorzystania kanałów oraz możliwość pracy z maskami sieci o zmiennej długości (co jest szczególnie wygodne przy ograniczonym zasobach IP adresy). Wady to dokładność zasobów obliczeniowych routerów, znaczny wzrost obciążenia przy dużej liczbie takich urządzeń w sieci oraz konieczność komplikowania topologii w dużych sieciach, dzieląc takie sieci na odrębne strefy (obszar). Ponadto OSPF nie ma jasnych kryteriów określania metryki: „koszt” każdego przeskoku można obliczyć według różnych parametrów, w zależności od producenta przełącznika i ustawień wybranych przez administratora. Rozszerza to możliwości konfiguracji routingu i jednocześnie znacznie komplikuje tę procedurę.

Nowoczesne przełączniki mogą zapewniać inne protokoły routingu oprócz tych opisanych powyżej.
Dynamika cen
MikroTik CRS328-24P-4S+RM często porównują
MikroTik CSS326-24G-2S+RM często porównują