Test DDR4 (Skylake) – 2133 MHz CL14 vs 3000 MHz CL15, cz.1

/Test DDR4 (Skylake) – 2133 MHz CL14 vs 3000 MHz CL15, cz.1

Zdecydowana większość osób składających komputer, przy wyborze pamięci patrzy głównie na pojemność, a niekoniecznie na częstotliwość taktowania, czy opóźnienia. Podejście jest z grubsza słuszne, ponieważ lepiej np. posiadać 8 GB RAMu o niższym taktowaniu, niż 4 GB super szybkiej pamięci.
Może jednak warto przyjrzeć się, ile faktycznie daje dopłata do (przynajmniej) w teorii wydajniejszych modułów.

Oto pierwsza część porównania pamięci, gdzie ustawiłem taktowania:

  • 2133 MHz 14-14-14-32
  • 3000 MHz 15-15-15-38

Poniżej zostaną przedstawione wyniki w benchmarkach, tzn. testach syntetycznych (Aida, MaxxMem) oraz gotowych testach wydajności w 14 starszych i nowszych grach.
Z racji tego, że wykorzystana karta to GTX 980 – ustawienia w aplikacjach były wybierane w maksymalnej możliwej opcji (dla dostępnego monitora), czyli:
– FullHD
– antyaliasing 4x
– detale ustawiane na bardzo wysokie/ultra (w zależności od tego co było możliwe)

Założenie takie, ponieważ nie sądzę, by ktoś – posiadający wydajny komputer  grał np. w 1280 x 720 w niskich detalach (a wtedy różnice byłyby na pewno mocniej zarysowane, GPU nie byłoby ograniczeniem).

[nextpage title=”Platforma testowa”]

Specyfikacja komputera użytego do testów.

platforma

komp

Pamięć G.Skill Ripjaws 4 2666 MHz CL15

20160421_193242

Po demontażu radiatora odprowadzającego ciepło z kości DDR4.

 

[nextpage title=”Benchmarki/programy syntetyczne”]

MaxxMem v 2.04

2133

3000

 

Zwiększenie częstotliwości o 866 MHz z jednoczesnym zwiększeniem tzw. timingów (stosunkowo niedużym) powoduje:

– zmniejszenie opóźnień pamięci o 10 ns (czyli znacząco)

– blisko 7500 MB/s większy transfer przy kopiowaniu

– około 4500 MB/s lepszy odczyt i ~ 3000MB/s zapis

Aida 64 – test pamięci operacyjnej i podręcznej

2133_aida

3000_aida

W teście przy użyciu Aidy 64 różnice są bardziej zauważalne.

  • 15 ns lepszy czas dostępu
  • ponad 10.000 MB/s większy odczyt, 13.000 MB/s zapis i ~11.000 MB/s kopiowanie

Czy przełoży się to na część bardziej praktyczną – zobaczycie na kolejnej stronie.

[nextpage title=”Testy w grach”]

AVP

Batman_AC

Dirt_Rally

DMC4

Grid2

GTA5

Hitman

JC2

LP2

RE5

 

Shadow_Mordor

Sniper

SF4

Tomb_Raider

Jak widać – na ogół różnice nie są duże (z wyjątkiem Hitmana i minimalnej ilości klatek w Shadow of Mordor), ale jak to wygląda procentowo – za chwilę.

[su_heading size=”20″]Średni przyrost wydajności[/su_heading]

Oto to co tygryski lubią najbardziej – zestawienie zysku z tytułu zastosowania szybszego RAMu.

wyniki

Biorąc pod uwagę Hitmana – średni przyrost to 5.39%, bez niego – 3.71%. Czy to dużo, czy mało – kwestia względna. Więcej w podsumowaniu.

[nextpage title=”Podsumowanie”]

Pierwsze koty za płoty. W tej części testu użyłem gotowych „rozwiązań”, więc niekoniecznie to musi mieć 100% przełożenie na wyniki podczas prawdziwej rozgrywki.
Tym zajmę się w kolejnej odsłonie, która pojawi się w ciągu 2-3 tygodni.
Póki co można stwierdzić, że w przypadku gdy chcemy osiągnąć maksymalną wydajność, to te niecałe 4% mogą czasami zrobić różnicę wpływającą na komfort rozgrywki (vide Shadow of Mordor i Hitman).

Główna kwestia jest taka, czy warto dopłacić:

Przy ograniczonym budżecie i wyborze 8GB ilości pamięci – kwestia mocno dyskusyjna, z przewagą na NIE, przy lepszym komputerze z 16GB – moim zdaniem warto dopłacić.
Prócz skromnego, ale przyrostu wydajności – łatwiej będzie po prostu dany zestaw RAM sprzedać (a jednak jakiś postęp jest, np. ostatnio G.Skill zaprezentował 3600 MHz CL15 pamięci).

By | 2016-05-08T17:46:20+00:00 Kwiecień 20th, 2016|Artykuły i felietony, Sprzęt|4 komentarze

4 komentarze

  1. K4MIL 20 kwietnia 2016 at 12:40

    Ciekawy test Colin 😉

  2. Plajerity 20 kwietnia 2016 at 12:53

    Bardzo ładny test. Jako uzupełnienie przyda się porównanie pojedynczej kości 2133MHz do dual channel (CL 14-15), żeby zobaczyć, ile tracą osoby decydujące się na jedną kość na taniej płycie głównej z zamiarem późniejszej rozbudowy. Na podstawie tego testu można przypuszczać, że jest to blisko 10% przy niemal tej samej cenie.

  3. Piotr Piter 20 kwietnia 2016 at 19:37

    No to jeszcze by się przydał test 8GB vs 16GB 🙂

  4. ReznoR 26 lutego 2017 at 23:14

    Troszkę nie rozumiem podejścia redaktora, choć zamysł miał słuszny…
    Biorąc pod uwagę wszystkie te rzeczy:
    1. Ramu się w kompie raczej nie wymienia, lub robi to bardzo rzadko – np. na jakiś o większej pojemności, lub dodaje kości, więc będzie czekał tam prawdopodobnie nawet do zmiany procesora na szybszy/podkręcenia go/zmiany karty graficznej na jakąś o wyższej wydajności.
    2. Szybszy Ram wpływa na szybkość CPU, gdyż powiększa jego możliwości obliczeniowe, czyli przy szybszym Ramie w miejscach w grze gdzie procesor będzie mocnym ograniczeniem znacznie pomoże posiadanie szybszego Ramu – takie miejsca widzimy w grach już nader często nawet dzisiaj np. CS:GO (de_nuke), Tomb Raider 2013 (Shantytown), Rise of the Tomb Raider (wszelkie bardziej otwarte mapy typu Geothermal Valley), multiplayer w Battlefieldach, lub ogólnie gry multiplayer, gdzie automatycznie wzrastają wymagania od procesora.
    3. Jeśli na płycie mamy już topowy odblokowany procesor który można tam wsadzić po OC, to nic więcej nie można tam zrobić dla poprawienia wydajności CPU poza zmianą platformy – lub wymianą Ramu na szybszy.
    4. niższa rozdzielczość i wyłączenie AA zupełnie nie wpływają na ilość maksymalnego FPS jaki potrafi zapewnić procesor. (reszta opcji w grze już jednakże ma na to wpływ).
    Znając te wszystkie fakty, wyobraźmy sobie taką sytuację.
    Ktoś składa komputer, wsadza i5-6600K lub i7-6700K, i do tego GTX 980 + Ram 2133 MHz. Procesor podkręca i gra w FullHD w najwyższych ustawieniach + AA. W większości momentów w wymagających grach ograniczeniem liczby FPS będzie dla niego karta graficzna w takich ustawieniach, a nawet jeśli CPU momentami dobije do maksymalnej ilości FPS, to tego raczej nie zauważy, bo różnice między GPU-FPS a CPU-FPS są zbyt słabe (np. procesor potrafi zapewnić powyżej 50 FPS w takich momentach więc użytkownik itak zwali te lekkie zwolnienia na kartę grafiki).
    Mija X lat.
    Użytkownik decyduje się na zmianę karty graficznej na GTX1080 lub wyższy jednakże przez ten czas wymagania gier odnośnie CPU jak i GPU znacznie wzrosły, i w najgorszych momentach w jakiejś nowej grze CPU nie jest w stanie zapewnić powyżej 30-40 FPS, a szybka karta graficzna nudzi się wtedy nawet w najwyższych ustawieniach z AA.
    Teraz przy założeniach procedur testowych – czyli podejście typu „testujemy wydajność GPU, a nie CPU” w grach – ze względu na założone ustawienia wyświetlania (FullHD + AAx4) znaczna większość zarejestrowanych przez benchmark klatek będzie wynikiem ograniczania przez GPU, a nie CPU.
    Więc jaki jest sens testowania wpływu szybkości Ramu na szybkość procesora w grach, jeśli w większości testujemy tak naprawdę wyniki karty graficznej?
    Bo moim zdaniem lepiej było ustawić detale na Ultra, z tą różnicą, że w 1280×720 + AAx0. Pozwoliłoby to (w znacznym stopniu, choć nadal nie całkowicie) wyeliminować wpływ używanej karty graficznej na wyniki, i dzięki temu same wyniki byłyby znacznie bardziej miarodajne, bo pokazywałyby różnice pomiędzy wolnym a szybkim Ramem. A przecież właśnie o pokazanie tych różnic chodziło na samym początku. Oczywiście zakładając, że autor dobrze dobrał miejsca testowe. Bo taki np. benchmark w Tomb Raider 2013 jest w znacznej większości ograniczony przez kartę graficzną, i nawet GTX 1080 w 800×600 robi się tam w większości ograniczeniem na i7-4790K 4.6 GHz na detalach Ultimate bez AA (sprawdzone przezemnie). W takich miejscach szybszy Ram nie da zupełnie NIC i ludzie patrząc na takie wyniki pomyślą sobie „po co mi to”. To właśnie w tych najtrudniejszych miejscach, takich jak np. Shantytown w TR2013, gdzie CPU i Ram robią się SPORYM ograniczeniem, bo rozbieżność CPU-FPS między benchmarkiem a Shantytown sięga niemal czterokrotności ilości FPS, doceni się dopiero ten szybszy Ram w komputerze. A takich miejsc w grach, zapewniam, nie brakuje. To właśnie w takich miejscach zaczynamy odczuwać znaczny dyskomfort w czasie grania.
    Nie ma sensu ograniczać się wolnym Ramem już na samym początku – właśnie to miało być jak rozumiem celem zrobienia testów, bo to prawda. Niestety ze względu na przyjęte założenia ustawień graficznych (zamiast ustawień pod CPU) nie zostało to do końca osiągnięte – jedynie Hitman pokazał tutaj odpowiednią różnicę, która zgadza się z moimi własnymi pomiarami z innych gier, gdyż najwidoczniej w przypadku Hitmana większość klatek zmierzonych była ograniczona przez szybkość CPU.
    Brakuje też trochę testu jednej kości (Single Channel) co również potrafi mieć spory wpływ.
    Ja ze swoich testów mogę jedynie wspomnieć, że pomiędzy DDR3-1333MHz Single Channel a 2400MHz Dual Channel różnice w miejscach CPU potrafiły dochodzić do nawet ponad 50%…
    Cóż, mam nadzieję że swoim przydługim komentarzem pobudziłem trochę wyobraźnię 🙂

Leave A Comment