Test DDR4 (Skylake) – 2133 MHz CL14 vs 3000 MHz CL15, cz.1

Intro

Zdecydowana większość osób składających komputer, przy wyborze pamięci patrzy głównie na pojemność, a niekoniecznie na częstotliwość taktowania, czy opóźnienia. Podejście jest z grubsza słuszne, ponieważ lepiej np. posiadać 8 GB RAMu o niższym taktowaniu, niż 4 GB super szybkiej pamięci.
Może jednak warto przyjrzeć się, ile faktycznie daje dopłata do (przynajmniej) w teorii wydajniejszych modułów.

Oto pierwsza część porównania pamięci, gdzie ustawiłem taktowania:

  • 2133 MHz 14-14-14-32
  • 3000 MHz 15-15-15-38

Poniżej zostaną przedstawione wyniki w benchmarkach, tzn. testach syntetycznych (Aida, MaxxMem) oraz gotowych testach wydajności w 14 starszych i nowszych grach.
Z racji tego, że wykorzystana karta to GTX 980 – ustawienia w aplikacjach były wybierane w maksymalnej możliwej opcji (dla dostępnego monitora), czyli:
– FullHD
– antyaliasing 4x
– detale ustawiane na bardzo wysokie/ultra (w zależności od tego co było możliwe)

Założenie takie, ponieważ nie sądzę, by ktoś – posiadający wydajny komputer  grał np. w 1280 x 720 w niskich detalach (a wtedy różnice byłyby na pewno mocniej zarysowane, GPU nie byłoby ograniczeniem).


CaptainHook

Maniak sprzętowy, redaktor Techlipton.pl. Zapraszam do polubienia profilu: https://www.facebook.com/captainhuku/ - gdzie można się ze mną najszybciej skontaktować.

  • K4MIL

    Ciekawy test Colin 😉

  • Plajerity

    Bardzo ładny test. Jako uzupełnienie przyda się porównanie pojedynczej kości 2133MHz do dual channel (CL 14-15), żeby zobaczyć, ile tracą osoby decydujące się na jedną kość na taniej płycie głównej z zamiarem późniejszej rozbudowy. Na podstawie tego testu można przypuszczać, że jest to blisko 10% przy niemal tej samej cenie.

  • Piotr Piter

    No to jeszcze by się przydał test 8GB vs 16GB 🙂

  • ReznoR

    Troszkę nie rozumiem podejścia redaktora, choć zamysł miał słuszny…
    Biorąc pod uwagę wszystkie te rzeczy:
    1. Ramu się w kompie raczej nie wymienia, lub robi to bardzo rzadko – np. na jakiś o większej pojemności, lub dodaje kości, więc będzie czekał tam prawdopodobnie nawet do zmiany procesora na szybszy/podkręcenia go/zmiany karty graficznej na jakąś o wyższej wydajności.
    2. Szybszy Ram wpływa na szybkość CPU, gdyż powiększa jego możliwości obliczeniowe, czyli przy szybszym Ramie w miejscach w grze gdzie procesor będzie mocnym ograniczeniem znacznie pomoże posiadanie szybszego Ramu – takie miejsca widzimy w grach już nader często nawet dzisiaj np. CS:GO (de_nuke), Tomb Raider 2013 (Shantytown), Rise of the Tomb Raider (wszelkie bardziej otwarte mapy typu Geothermal Valley), multiplayer w Battlefieldach, lub ogólnie gry multiplayer, gdzie automatycznie wzrastają wymagania od procesora.
    3. Jeśli na płycie mamy już topowy odblokowany procesor który można tam wsadzić po OC, to nic więcej nie można tam zrobić dla poprawienia wydajności CPU poza zmianą platformy – lub wymianą Ramu na szybszy.
    4. niższa rozdzielczość i wyłączenie AA zupełnie nie wpływają na ilość maksymalnego FPS jaki potrafi zapewnić procesor. (reszta opcji w grze już jednakże ma na to wpływ).
    Znając te wszystkie fakty, wyobraźmy sobie taką sytuację.
    Ktoś składa komputer, wsadza i5-6600K lub i7-6700K, i do tego GTX 980 + Ram 2133 MHz. Procesor podkręca i gra w FullHD w najwyższych ustawieniach + AA. W większości momentów w wymagających grach ograniczeniem liczby FPS będzie dla niego karta graficzna w takich ustawieniach, a nawet jeśli CPU momentami dobije do maksymalnej ilości FPS, to tego raczej nie zauważy, bo różnice między GPU-FPS a CPU-FPS są zbyt słabe (np. procesor potrafi zapewnić powyżej 50 FPS w takich momentach więc użytkownik itak zwali te lekkie zwolnienia na kartę grafiki).
    Mija X lat.
    Użytkownik decyduje się na zmianę karty graficznej na GTX1080 lub wyższy jednakże przez ten czas wymagania gier odnośnie CPU jak i GPU znacznie wzrosły, i w najgorszych momentach w jakiejś nowej grze CPU nie jest w stanie zapewnić powyżej 30-40 FPS, a szybka karta graficzna nudzi się wtedy nawet w najwyższych ustawieniach z AA.
    Teraz przy założeniach procedur testowych – czyli podejście typu „testujemy wydajność GPU, a nie CPU” w grach – ze względu na założone ustawienia wyświetlania (FullHD + AAx4) znaczna większość zarejestrowanych przez benchmark klatek będzie wynikiem ograniczania przez GPU, a nie CPU.
    Więc jaki jest sens testowania wpływu szybkości Ramu na szybkość procesora w grach, jeśli w większości testujemy tak naprawdę wyniki karty graficznej?
    Bo moim zdaniem lepiej było ustawić detale na Ultra, z tą różnicą, że w 1280×720 + AAx0. Pozwoliłoby to (w znacznym stopniu, choć nadal nie całkowicie) wyeliminować wpływ używanej karty graficznej na wyniki, i dzięki temu same wyniki byłyby znacznie bardziej miarodajne, bo pokazywałyby różnice pomiędzy wolnym a szybkim Ramem. A przecież właśnie o pokazanie tych różnic chodziło na samym początku. Oczywiście zakładając, że autor dobrze dobrał miejsca testowe. Bo taki np. benchmark w Tomb Raider 2013 jest w znacznej większości ograniczony przez kartę graficzną, i nawet GTX 1080 w 800×600 robi się tam w większości ograniczeniem na i7-4790K 4.6 GHz na detalach Ultimate bez AA (sprawdzone przezemnie). W takich miejscach szybszy Ram nie da zupełnie NIC i ludzie patrząc na takie wyniki pomyślą sobie „po co mi to”. To właśnie w tych najtrudniejszych miejscach, takich jak np. Shantytown w TR2013, gdzie CPU i Ram robią się SPORYM ograniczeniem, bo rozbieżność CPU-FPS między benchmarkiem a Shantytown sięga niemal czterokrotności ilości FPS, doceni się dopiero ten szybszy Ram w komputerze. A takich miejsc w grach, zapewniam, nie brakuje. To właśnie w takich miejscach zaczynamy odczuwać znaczny dyskomfort w czasie grania.
    Nie ma sensu ograniczać się wolnym Ramem już na samym początku – właśnie to miało być jak rozumiem celem zrobienia testów, bo to prawda. Niestety ze względu na przyjęte założenia ustawień graficznych (zamiast ustawień pod CPU) nie zostało to do końca osiągnięte – jedynie Hitman pokazał tutaj odpowiednią różnicę, która zgadza się z moimi własnymi pomiarami z innych gier, gdyż najwidoczniej w przypadku Hitmana większość klatek zmierzonych była ograniczona przez szybkość CPU.
    Brakuje też trochę testu jednej kości (Single Channel) co również potrafi mieć spory wpływ.
    Ja ze swoich testów mogę jedynie wspomnieć, że pomiędzy DDR3-1333MHz Single Channel a 2400MHz Dual Channel różnice w miejscach CPU potrafiły dochodzić do nawet ponad 50%…
    Cóż, mam nadzieję że swoim przydługim komentarzem pobudziłem trochę wyobraźnię 🙂

Kontynuując przeglądanie strony, wyrażasz zgodę na używanie przez nas plików cookies. więcej informacji

Aby zapewnić Tobie najwyższy poziom realizacji usługi, opcje ciasteczek na tej stronie są ustawione na "zezwalaj na pliki cookies". Kontynuując przeglądanie strony bez zmiany ustawień lub klikając przycisk "Akceptuję" zgadzasz się na ich wykorzystanie.

Zamknij