Polska
Katalog   /   Komputery   /   Sprzęt sieciowy   /   Switche

Porównanie Cisco C1300-48P-4X vs Cisco C1000-48P-4X-L

Dodaj do porównania
Cisco C1300-48P-4X
Cisco C1000-48P-4X-L
Cisco C1300-48P-4XCisco C1000-48P-4X-L
Porównaj ceny 7Porównaj ceny 2
TOP sprzedawcy
1x USB typu A z obsługą adapterów Bluetooth.
Rodzajzarządzalny warstwy 3 (L3)zarządzalny warstwy 2 (L2)
MontażRACKRACK
Przepustowość176 Gb/s
Rozmiar tablicy adresów MAC16K
Porty
Gigabit Ethernet48 szt.48 szt.
SFP+ (światłowód)4 szt.4 szt.
Uplink4 szt.4 szt.
Typ UplinkSFP+SFP+
Port konsolowy
Funkcje i możliwości
Zarządzanie
SSH
Telnet
przeglądarka www
SNMP
SSH
Telnet
przeglądarka www
SNMP
Podstawowe funkcje
serwer DHCP
funkcja stackowania
Link Aggregation
VLAN
ochrona przed pętlami
ograniczenie prędkości dostępu
Link Aggregation
VLAN
ochrona przed pętlami
ograniczenie prędkości dostępu
Routing
Statyczny
Standardy
RIP
 
PoE
PoE (wyjście)802.3af/at802.3af/at
Liczba wyjść z obsługą PoE48 szt.48 szt.
Moc wyjściowa PoE30 W30 W
Moc całkowita PoE375 W370 W
Dane ogólne
Zasilaczwbudowanywbudowany
Napięcie zasilania100 – 240 В110 – 220 В
Moc47 W
Temperatura robocza-5 °C ~ +50 °C-5 °C ~ +50 °C
Wymiary (SxGxW)445x350x44 mm444x350x44 mm
Waga5430 g5430 g
Data dodania do E-Kataloglistopad 2023listopad 2020
Glosariusz

Rodzaj

- Niekontrolowany. Najprostszy typ przełącznika, który nie ma, jak sama nazwa wskazuje, możliwości zarządzania; a możliwość monitorowania stanu urządzenia ogranicza się zazwyczaj do najprostszych wskaźników w postaci żarówek (zasilanie, aktywność portu). Zaletami takich modeli są autonomia, łatwość użytkowania i niski koszt. Główna wada tego typu jest oczywista - niemożność dostosowania parametrów pracy. Przełączniki niezarządzane doskonale nadają się do małych sieci LAN, takich jak dom lub małe biuro, gdzie nie są wymagane żadne specjalne poprawki administracyjne; jednak nie powinny być używane w dużych organizacjach.

- Konfigurowalny. Ta kategoria obejmuje przełączniki, które mogą zmieniać niektóre parametry pracy. Jednocześnie możliwości takich zmian są znacznie mniejsze niż w modelach zarządzanych, a sprawa zwykle ogranicza się do wyłączania poszczególnych portów, przełączania standardowych prędkości na złącza Ethernet (np. ze 100 Mb/s na 10 Mb/s) i najprostszego monitoringu narzędzia takie jak przeglądanie statystyk sieciowych. Ponadto po rekonfiguracji urządzenie zwykle wymaga ponownego uruchomienia - innymi słowy nie ma możliwości kontrolowania działania przełącznika „w locie”. Niemniej jednak do tego typu mogą należeć profesjonalne modele przeznaczone dla dużych sieci.

- Zarządzane 2 poziomy. Termin „zarządzany” oznacza, że przełącznik ma możliwość re...konfiguracji w locie, w przeciwieństwie do konfigurowalnych modeli opisanych powyżej. Ponadto ogólna funkcjonalność takich urządzeń jest w większości przypadków znacznie szersza. A „poziom 2” oznacza, że urządzenie obsługuje tylko drugą warstwę modelu sieci OSI – kanałową, która odpowiada za adresowanie fizyczne. W praktyce oznacza to, że przełącznik może pracować z adresami MAC podłączonych urządzeń, ale adresowanie IP przekracza jego możliwości.

- Kontrolowane 3 poziomy. Rodzaj zarządzanych przełączników (patrz wyżej) obsługujących trzecią warstwę modelu sieci OSI. Ta warstwa odpowiada za logiczne adresowanie i routing, które umożliwiają urządzeniu pracę z adresami IP. Z tego powodu modele tego typu uważane są za najbardziej zaawansowane, często zapewniają nie tylko tradycyjne możliwości „przełączników”, ale także osobne funkcje routerów. Z drugiej strony obfitość możliwości znacząco wpływa na cenę. Takie przełączniki są powszechnie stosowane w centrach danych, firmach telekomunikacyjnych i innych miejscach związanych z profesjonalnym użytkowaniem sieci; nie ma sensu kupować takiego urządzenia do domu lub małego biura.

Przepustowość

Przepustowość przełącznika to maksymalna ilość ruchu, jaką może obsłużyć. Wskazany w gigabitach na sekundę.

Parametr ten bezpośrednio zależy od liczby portów sieciowych w urządzeniu (z wyłączeniem Uplink). W rzeczywistości, nawet jeśli przepustowość nie jest wymieniona w charakterystyce, nadal można ją obliczyć za pomocą następującego wzoru: liczba portów pomnożona przez przepustowość pojedynczego portu i pomnożona przez dwa (ponieważ uwzględniany jest zarówno ruch przychodzący, jak i wychodzący ). Na przykład model z 8 gniazdami Gigabit Ethernet i 2 portami SFP będzie miał przepustowość (8 * 1 + 2 * 1) * 2 = 20 Gb/s.

Wybór tego wskaźnika jest dość oczywisty: należy oszacować szacunkowe wielkości ruchu w obsługiwanym segmencie sieci i upewnić się, że przepustowość przełącznika będzie się na niego nakładać z marginesem co najmniej 10-15% (da to dodatkową gwarancję w przypadku sytuacji awaryjnych). Jednocześnie, jeśli planujesz często pracować przy wysokich, zbliżonych do maksymalnych obciążeniach, nie zaszkodzi wyjaśnienie innej cechy, takiej jak wewnętrzna przepustowość przełącznika. Jest to zwykle podane w szczegółowym opisie technicznym, a jeśli ta wartość jest mniejsza niż całkowita przepustowość, mogą pojawić się poważne problemy podczas pracy przy znacznych obciążeniach.

Rozmiar tablicy adresów MAC

Maksymalna liczba adresów MAC, które mogą być jednocześnie przechowywane w pamięci przełącznika. Jest wskazany w tysiącach, na przykład 8K - 8 tys.

Przypomnijmy, że adres MAC jest unikalnym adresem każdego urządzenia sieciowego używanego w routingu fizycznym (w warstwie 2 modelu sieci OSI). Z takimi adresami współpracują wszystkie typy przełączników. A przełącznik warto dobierać według wielkości tabeli biorąc pod uwagę maksymalną liczbę urządzeń, które mają z nim współpracować (w tym licząc na możliwą rozbudowę sieci). Jeśli tabela nie wystarczy, przełącznik nadpisze nowe adresy na stare, co może znacznie spowolnić pracę.

Podstawowe funkcje

- Serwer DHCP. Funkcja ułatwiająca sterowanie adresami IP urządzeń podłączonych do przełącznika. Prawidłowa praca urządzenia sieciowego jest niemożliwa bez własnego adresu IP; a obsługa DHCP umożliwia przypisanie tych adresów ręcznie lub w pełni automatycznie. W takim przypadku administrator może ustawić dodatkowe parametry dla trybu automatycznego (zakres adresów, maksymalny czas użytkowania jednego adresu). I nawet w trybie całkowicie ręcznym praca z adresami odbywa się tylko za pomocą samego przełącznika (podczas gdy bez DHCP parametry te musiałyby być zapisane w ustawieniach każdego urządzenia w sieci).

- Wsparcie sztaplowania. Możliwość obsługi urządzenia w trybie stosu. Stos składa się z kilku przełączników, postrzeganych przez sieć jako jeden „przełącznik”, z jednym adresem MAC, jednym adresem IP i całkowitą liczbą złączy równą całkowitej liczbie portów we wszystkich zaangażowanych urządzeniach. Funkcja ta jest przydatna, jeśli chcesz zbudować dużą sieć, w której brakuje możliwości jednego „przełącznika”, ale nie chcesz komplikować topologii.

- Agregacja łączy. Przełącz obsługę technologii agregacji łączy. Technologia ta pozwala na połączenie kilku równoległych fizycznych kanałów komunikacyjnych w jeden logiczny, co zwiększa szybkość i niezawodność połączenia. Mówiąc najprościej, przełącznik z taką funkcją można podłączyć do innego urządzenia (na p...rzykład routera) nie jednym kablem, ale dwoma lub nawet kilkoma kablami jednocześnie. W tym przypadku wzrost prędkości następuje z powodu sumowania przepustowości wszystkich kanałów fizycznych; jednak ogólna prędkość może być mniejsza niż suma prędkości - z drugiej strony łączenie kilku stosunkowo wolnych złączy jest często tańsze niż używanie sprzętu z bardziej zaawansowanym pojedynczym interfejsem. Wzrost niezawodności odbywa się, po pierwsze, poprzez rozłożenie całkowitego obciążenia na oddzielne kanały fizyczne, a po drugie, dzięki „gorącej” nadmiarowości: awaria jednego portu lub kabla może zmniejszyć prędkość, ale nie prowadzi do całkowitego przerwanie połączenia, ale po wznowieniu działania kanał jest automatycznie aktywowany.
Należy zauważyć, że zarówno standardowy protokół LACP, jak i niestandardowe, zastrzeżone technologie mogą być używane do agregacji łączy (ta ostatnia jest typowa na przykład dla przełączników Cisco). Ponadto istnieje wiele alternatywnych nazw dla tej technologii — trunking portów, łączenie łączy itp. czasami różnica tkwi tylko w nazwie, czasami pojawiają się niuanse techniczne. Wszystkie te szczegóły należy wyjaśnić osobno.

- VLAN. Przełącznik obsługuje funkcję VLAN - wirtualne sieci lokalne. W tym przypadku znaczeniem tej funkcji jest możliwość tworzenia oddzielnych logicznych (wirtualnych) sieci lokalnych w ramach fizycznego „obszaru lokalnego”. W ten sposób można np. podzielić działy w dużej organizacji, tworząc dla każdego z nich własną sieć lokalną. Organizacja VLAN może zmniejszyć obciążenie sprzętu sieciowego, a także zwiększyć stopień ochrony danych.

- Ochrona pętli. Zabezpieczenie pętli w przełączniku. Pętlę w tym przypadku można opisać jako sytuację, w której ten sam sygnał jest wyzwalany w sieci w nieskończonej pętli. Może to wynikać z niewłaściwego okablowania, użycia nadmiarowych łączy i innych przyczyn, ale w każdym przypadku takie zjawisko może „uśpić” sieć, co oznacza, że jest wysoce niepożądane. Ochrona pozwala uniknąć pętli — zwykle poprzez wyłączenie zapętlonych portów.

- Ograniczenie szybkości dostępu. Możliwość ograniczenia szybkości wymiany danych dla poszczególnych portów przełącznika. Dzięki temu możliwe jest zmniejszenie obciążenia sieci i zapobieganie „zatykaniu” kanału przez poszczególne terminale.

Pamiętaj, że ta lista nie ogranicza się do: nowoczesne przełączniki mogą mieć inne funkcje.

Statyczny

Przypomnijmy, że routing jest definicją najlepszej ścieżki, wzdłuż której każdy pakiet danych może być dostarczony do odbiorcy. W tym celu wykorzystywane są specjalne tabele, które są przechowywane w pamięci sterującego urządzenia sieciowego z funkcją routingu. Zgodnie z metodą wypełniania tych tabel, procedura ta jest podzielona na dwa główne typy - statyczny i dynamiczny.

Routing statyczny to metoda, w której wszystkie trasy danych (wpisy w tablicy routingu) są ręcznie rejestrowane przez administratora; dotyczy to zarówno początkowego tworzenia tabeli, jak i wprowadzania w niej zmian w przypadku zmiany konfiguracji sieci. Główną zaletą tej metody jest minimalne obciążenie procesora przełącznika, co pozytywnie wpływa na szybkość i niezawodność sieci. Główne wady routingu statycznego wiążą się z koniecznością ręcznego sterowania. Tak więc im szersza sieć, tym bardziej złożone i pracochłonne jest zarządzanie nią; nieuwaga administratora może stać się dodatkowym powodem awarii; a diagnoza niektórych problemów jest zauważalnie trudna - na przykład w przypadku awarii na poziomie łącza trasa statyczna pozostaje widoczna jako aktywna, chociaż żadne dane nie są przesyłane.

Standardy

Routing statyczny odbywa się zgodnie ze standardowym schematem, jednak do routingu dynamicznego używane są różne protokoły. Idea dynamiki polega na tym, że tabela tras jest stale edytowana programowo, w trybie automatycznym. W tym celu urządzenia sieciowe (a dokładniej działające na nich programy trasujące) wymieniają między sobą informacje o usługach, na podstawie których do tablicy zapisywane są optymalne adresy. Jednym z podstawowych pojęć routingu dynamicznego jest metryka - złożony wskaźnik, który określa warunkową odległość do określonego adresu (innymi słowy, jak blisko jest ta lub inna trasa od optymalnej). Różne protokoły wykorzystują różne sposoby definiowania i udostępniania metryk; oto niektóre z najczęstszych opcji:

ODP Jeden z najczęściej używanych protokołów routingu dynamicznego; został po raz pierwszy zastosowany w 1969 roku w ARPANET, który stał się prekursorem współczesnego Internetu. Odnosi się do tzw. algorytmów wektora odległości: metryka w protokole RIP jest wskazywana przez wektor odległości między routerem a węzłem sieci, a każdy taki wektor zawiera informację o kierunku przesyłania danych i liczbie „przeskoków” (sekcje między węzłami pośrednimi) do odpowiedniego urządzenia sieciowego. Podczas korzystania z protokołu RIP metryki są przesyłane przez sieć co 30 sekund; jednocześnie, po otrzymaniu od „sąsiada” danych o znanych mu węzłach, router dokonuje szeregu wyjaśnień i uzupełnień do tych danych (...w szczególności informacji o sobie i bezpośrednio podłączonych urządzeniach sieciowych) i przesyła dalej. Po otrzymaniu aktualnych danych w całej sieci router wybiera dla każdego węzła najkrótszą trasę z kilku otrzymanych alternatyw i zapisuje ją w tablicy routingu.
Zaletami protokołu RIP są łatwość implementacji i niewymagające wymagania. Z drugiej strony słabo nadaje się do dużych sieci: maksymalna liczba przeskoków w RIP jest ograniczona do 15, a komplikacja topologii prowadzi do znacznego wzrostu ruchu usług i obciążenia części obliczeniowej sprzętu - w rezultacie rzeczywista wydajność sieci spada. W związku z tym bardziej zaawansowane protokoły, takie jak (E)IGRP i OSPF (patrz poniżej), stały się bardziej powszechne w zastosowaniach profesjonalnych.

— IGRP. Zastrzeżony protokół routingu stworzony przez Cisco dla systemów autonomicznych (innymi słowy sieci lokalnych z jedną polityką routingu z Internetem). Podobnie jak RIP (patrz wyżej), odnosi się do protokołów wektora odległości, jednak używa znacznie bardziej skomplikowanej procedury określania metryki: uwzględnia nie tylko liczbę przeskoków, jednak także opóźnienie, przepustowość, rzeczywiste przeciążenie sieci , itp. Ponadto protokół implementuje szereg specyficznych mechanizmów poprawiających niezawodność komunikacji. Dzięki temu protokół IGRP doskonale nadaje się nawet do dość złożonych sieci o rozbudowanej topologii.

— EIGRP. Ulepszony i unowocześniony następca opisanego powyżej protokołu IGRP, opracowanego przez to samo Cisco. Stworzony jako alternatywa dla OSPF (patrz poniżej), łączy właściwości protokołów i standardów wektora odległości ze śledzeniem stanu łącza. Jedną z głównych zalet w stosunku do oryginalnego protokołu IGRP było ulepszenie algorytmu rozpowszechniania danych o zmianach topologii w sieci, dzięki czemu prawdopodobieństwo wystąpienia pętli (charakterystyczne dla wszystkich standardów wektora odległości) zostało zredukowane niemal do zera. A wśród różnic między tym protokołem a OSPF, wyższa wydajność i bardziej zaawansowany algorytm obliczania metryk są deklarowane przy mniejszej złożoności konfiguracji i wymaganiach dotyczących zasobów.

OSPF. Otwarty protokół routingu systemu autonomicznego stworzony przez IETF (Internet Design Council) i zaimplementowany po raz pierwszy w 1988 roku. Odnosi się do protokołów ze śledzeniem stanu łącza, do budowania tras wykorzystuje tzw. algorytm Dijkstry (algorytm wyszukiwania najkrótszych ścieżek). Proces routingu OSPF jest następujący. Początkowo router komunikuje się z podobnymi urządzeniami, ustanawiając „relację sąsiada”; sąsiedzi to routery w tej samej strefie autonomicznej. Następnie sąsiedzi wymieniają między sobą metryki, synchronizując dane, a po takiej synchronizacji wszystkie routery otrzymują kompletną bazę danych stanu wszystkich łączy w sieci (LSDB). Już na podstawie tej bazy każde z tych urządzeń buduje własną tablicę tras przy użyciu algorytmu Dijkstry. Główne zalety OSPF to duża szybkość (szybkość konwergencji), wysoki stopień optymalizacji wykorzystania kanałów oraz możliwość pracy z maskami sieci o zmiennej długości (co jest szczególnie wygodne przy ograniczonym zasobach IP adresy). Wady to dokładność zasobów obliczeniowych routerów, znaczny wzrost obciążenia przy dużej liczbie takich urządzeń w sieci oraz konieczność komplikowania topologii w dużych sieciach, dzieląc takie sieci na odrębne strefy (obszar). Ponadto OSPF nie ma jasnych kryteriów określania metryki: „koszt” każdego przeskoku można obliczyć według różnych parametrów, w zależności od producenta przełącznika i ustawień wybranych przez administratora. Rozszerza to możliwości konfiguracji routingu i jednocześnie znacznie komplikuje tę procedurę.

Nowoczesne przełączniki mogą zapewniać inne protokoły routingu oprócz tych opisanych powyżej.

Moc całkowita PoE

Całkowita moc jaką switch może wygenerować na wszystkie wyjścia PoE.

Patrz powyżej, aby uzyskać szczegółowe informacje na temat takich wyjść; tutaj zaś przypominamy, że ogólna idea PoE polega na podawaniu zasilania przez ten sam kabel Ethernet, którym przesyłane są dane. Moc całkowita podawana jest dla modeli, w których występuje więcej niż jedno takie złącze; pozwala ona ocenić całkowity pobór mocy wszystkich urządzeń PoE, które mogą być podłączone do switcha w tym samym czasie. W niektórych modelach profesjonalnych parametr ten może przekraczać 500 W.

Przy wyborze według konkretnej wartości, należy pamiętać o dwóch ważnych rzeczach. Po pierwsze, gdy działa kilka portów, energia jest zwykle dzielona równo między nimi; jednocześnie łączna moc switcha nie zawsze odpowiada sumie mocy maksymalnych wszystkich wyjść PoE. Na przykład model z portami 8 x 30 W może nie mieć łącznie 240 W (8*30 W), lecz tylko 100 W. W praktyce ta rozbieżność oznacza, że przy jednoczesnym używaniu wszystkich złączy, każde z nich będzie w stanie wygenerować nie 30 W, a maksymalnie 100/8 = 12,5 W. Po drugie, całkowity pobór mocy obciążenia nie powinien przekraczać 75% deklarowanej całkowitej mocy PoE - zapewnia to dodatkową gwarancję na wypadek awarii.

Należy podkreślić, że jeśli switch posiada wejście PoE, to przy użyciu takiego zasilania całkowita moc wyjść PoE w najlepszym przypadku zauważalnie zmniejszy się, a w najgorszym takie wyjści...a zamieniają się w zwykłe porty Ethernet. Dlatego w takich modelach dane dotyczące całkowitej mocy PoE są istotne tylko wtedy, gdy switch jest zasilany ze zwykłego gniazdka.

Napięcie zasilania

Napięcie zasilania, niezbędne przełącznikowi do nieprzerwanej pracy. Napięcie zasilania urządzeń sieciowych może wahać się od 5 V do 230 V, co pozwala na zasilanie kompatybilnych urządzeń zarówno z niskonapięciowego gniazda USB w komputerze, jak i ze standardowego domowego gniazdka. Wartości "środkowe" zakładają, że przełącznik zasilany jest przez właściwy zasilacz.

Moc

Moc pobierana przez sprzęt sieciowy podczas pracy. Znając wskaźnik zużycia energii, można na przykład obliczyć żywotność baterii sprzętu z zasilacza bezprzerwowego lub wybrać odpowiednie „zasilacz bezprzerwowy”.
Dynamika cen
Cisco C1300-48P-4X często porównują