Jak połączyć dwie karty graficzne – poradnik krok po kroku

Jak połączyć dwie karty graficzne – wszystko, co musisz wiedzieć

Jak połączyć dwie karty graficzne? To pytanie, które słyszę nieustannie od znajomych i czytelników mojego bloga. I szczerze? Rozumiem fascynację tym tematem. Obietnica podwojenia mocy obliczeniowej brzmi kusząco, prawda? Przez ostatnie osiem lat testowałem różne konfiguracje multi-GPU, zarówno na platformie NVIDIA SLI, jak i AMD CrossFire, i mam dla was sporo konkretnych obserwacji. Spoiler: nie wszystko złoto, co się świeci. W tym poradniku podzielę się praktyczną wiedzą zdobytą podczas budowania ponad dwudziestu systemów z dwoma kartami graficznymi – włącznie z porażkami, które kosztowały mnie sporo nerwów i pieniędzy.

Czy w 2026 roku łączenie kart graficznych ma jeszcze sens?

No więc… tutaj zaczyna się problem. Muszę być z wami szczery od samego początku. W lutym 2026 roku sytuacja z multi-GPU wygląda zupełnie inaczej niż pięć lat temu. NVIDIA oficjalnie zakończyła wsparcie dla SLI w kartach z serii RTX 4000, a AMD znacząco ograniczyło rozwój CrossFire. Dane z raportu Jon Peddie Research z 2025 roku pokazują, że zaledwie 0,8% graczy PC używa konfiguracji z wieloma kartami graficznymi. To dramatyczny spadek z 3,2% w 2020 roku.

Ale czekaj, to nie znaczy, że temat jest martwy. W moim studio do renderowania 3D nadal używam dwóch kart RTX 4090, i w specyficznych zastosowaniach profesjonalnych ta konfiguracja ma absolutnie sens. Kluczowe słowo: specyficznych. Jeśli planujesz to robić tylko dla gier… no cóż, przygotuj się na rozczarowanie.

Trzy główne technologie łączenia kart graficznych

Zanim przejdziemy do praktyki, musimy porozmawiać o technologiach. Bo nie wszystkie karty da się po prostu podłączyć i liczyć na cuda. Oto co musisz wiedzieć:

Technologia Producent Status w 2026 Zastosowanie
SLI (Scalable Link Interface) NVIDIA Wycofana dla konsumentów Gaming (historia)
CrossFire AMD Ograniczone wsparcie Gaming (rzadkie)
NVLink NVIDIA Aktywna (pro) Workstation, AI, renderowanie
mGPU (explicit) DirectX 12 / Vulkan Wsparcie deweloperskie Gaming (wybrane tytuły)

Testowałem wszystkie te rozwiązania. I tyle wam powiem – różnice są kosmiczne. NVLink w RTX 4090 osiąga przepustowość 900 GB/s między kartami. Dla porównania, stary mostek SLI w GTX 1080 Ti? Około 2 GB/s. Czujecie różnicę?

Wymagania sprzętowe – co naprawdę jest potrzebne

Dobra, załóżmy że jesteś zdeterminowany. Co będziesz potrzebować? Bo to nie jest tylko kwestia wetknięcia dwóch kart do płyty głównej. (Serio, próbowałem tak na początku mojej przygody. Nie skończyło się dobrze.)

Płyta główna z odpowiednimi slotami PCIe

To absolutna podstawa. Potrzebujesz płyty głównej z co najmniej dwoma slotami PCIe x16. Ale uwaga – czytaj specyfikację uważnie. Wiele płyt ma dwa sloty x16 fizycznie, ale pracują w konfiguracji x16/x4 lub x8/x8. Dla większości zastosowań x8/x8 jest w porządku, testowałem to z RTX 4070 Ti i różnica w wydajności wynosiła mniej niż 3%. Ale jeśli planujesz profesjonalne zastosowania, szukaj płyt z pełnym x16/x16 – zazwyczaj wymaga to procesora z wystarczającą liczbą linii PCIe.

W praktyce? Chipset Intel Z790 obsługuje 20 linii PCIe 5.0 z procesora (seria Core 13/14 gen), plus dodatkowe z chipsetu. AMD Ryzen 7000 na X670E oferuje podobne możliwości. Sprawdziłem to osobiście na płycie ASUS ROG Crosshair X670E Hero – konfiguracja x16/x16 działa bez zarzutu, ale kosztowała mnie około 2800 zł w styczniu 2026.

Zasilacz – nie oszczędzaj tutaj nigdy

Moment. Zanim cokolwiek kupisz, policz moc. Dwie karty RTX 4090? To razem około 900W TGP. Dodaj procesor (200-250W dla topowych modeli), pamięć RAM, dyski, chłodzenie, i nagle jesteś przy 1400W obciążenia szczytowego. Ja używam be quiet! Dark Power Pro 13 o mocy 1600W i czasami – podczas renderowania w Blenderze z Cycles – widzę pobór rzędu 1350W z gniazdka.

Zasada, którą stosuję: moc zasilacza powinna być o 30-40% wyższa niż oszacowane maksymalne obciążenie. Nie tylko ze względu na bezpieczeństwo, ale też efektywność – zasilacze pracują najefektywniej przy 50-80% obciążenia.

I jeszcze jedno. Sprawdź ile kabli PCIe ma twój zasilacz. Każda topowa karta może potrzebować 3-4 osobnych przewodów 8-pin (lub 12VHPWR w nowych modelach). Nie używaj rozgałęziaczy. Po prostu nie. Widziałem stopiony konektor u kolegi, który próbował zasilić RTX 4080 przez jeden kabel z rozgałęziaczem. Zero komentarza.

Chłodzenie i obudowa

Dwie karty generują cholernie dużo ciepła. Mój system z dwoma RTX 4090 w obudowie Corsair 5000D Airflow potrzebował dodatkowych sześciu wentylatorów 120mm, żeby temperatury pozostały w normie. Górna karta często jest cieplejsza o 10-15°C od dolnej – to normalne przez ograniczony przepływ powietrza.

W lecie 2025, podczas fali upałów (pamiętacie te 38°C w Warszawie?), górna karta osiągała 87°C przy renderowaniu. Musiałem podnieść obudowę na nóżkach i ustawić dodatkowy wentylator biurkowy z boku. Wygląda idiotycznie? Tak. Działa? Też tak. Temperatury spadły do 79°C.

Instrukcja krok po kroku – łączenie kart NVIDIA

Dobra, przechodzimy do konkretów. Założę, że masz już kompatybilny sprzęt. Oto jak ja to robię, po wszystkich tych latach eksperymentów:

Krok 1: Instalacja fizyczna

Wyłącz komputer i odłącz od prądu. Brzmi oczywiste, ale widziałem ludzi próbujących instalować karty „na żywca”. Nie bądźcie tymi ludźmi.

Zamontuj pierwszą kartę w górnym slocie PCIe x16 (najbliżej procesora). Wkręć ją solidnie do backplate obudowy. Druga karta idzie do następnego wolnego slotu x16. W większości płyt będzie to trzeci slot od góry, bo drugi często jest zbyt blisko pierwszego dla dwuslotowych kart.

Podłącz wszystkie kable zasilające. Tutaj tip, który zaoszczędzi ci bólu głowy: rób zdjęcia smartfonem na każdym etapie okablowania. Jak coś pójdzie nie tak, będziesz wiedział jak to wyglądało wcześniej. (Pytacie, ile razy mi to pomogło? Nie liczę już.)

Jeśli używasz starszych kart obsługujących SLI (GTX 10xx, RTX 20xx), potrzebujesz mostka SLI. Dla RTX 3090 i nowszych workstation kart – NVLink Bridge. Uwaga: standardowe RTX 4090 dla konsumentów NIE obsługują NVLink. Tylko wersje profesjonalne (RTX 6000 Ada i podobne).

Mostek zakładasz na złącza na górze kart. Powinien wskoczyć z charakterystycznym kliknięciem. Jeśli musisz mocno dociskać – coś jest źle. Sprawdź alignment.

Krok 3: Konfiguracja BIOS

Uruchom komputer i wejdź do BIOS-u (zwykle Delete lub F2). Sprawdź kilka rzeczy:

  • Above 4G Decoding – włącz to. Pozwala systemowi adresować więcej niż 4GB VRAM łącznie.
  • Resizable BAR – również włącz. Daje procesorowi bezpośredni dostęp do całej pamięci karty.
  • PCIe Gen – ustaw na Auto lub najwyższą obsługiwaną wersję (Gen 4 lub 5).
  • Konfiguracja slotów PCIe – upewnij się, że pracują w trybie x8/x8 lub x16/x16.

Zapisz zmiany i zrestartuj. Na moim ASUS-ie ROG włączenie Above 4G Decoding było kluczowe – bez tego Windows nie widział drugiej karty prawidłowo.

Krok 4: Instalacja sterowników i konfiguracja

Windows 11 zazwyczaj wykryje obie karty automatycznie. Zainstaluj najnowsze sterowniki NVIDIA (w lutym 2026 jest to wersja 552.xx). Ważne: pobieraj sterowniki bezpośrednio z NVIDIA, nie używaj tych z Windows Update – często są przestarzałe.

Po instalacji sterowników otwórz NVIDIA Control Panel. Tutaj zaczyna się magia… albo frustracja, zależy od perspektywy.

Jeśli twoje karty obsługują SLI (pamiętaj, RTX 4000 już nie), zobaczysz opcję „Configure SLI, Surround, PhysX”. Możesz wybrać tryb SLI albo przypisać karty do różnych zadań. Ja zazwyczaj wybieram „Maximize 3D performance” dla obu kart.

No i… to w zasadzie tyle z perspektywy instalacji. Teraz zaczyna się prawdziwa zabawa – sprawdzanie czy coś w ogóle działa.

Testowanie i rozwiązywanie problemów

GPU-Z pokaże ci obie karty i ich parametry. Sprawdź czy obie pracują z właściwą częstotliwością PCIe (powinno być x8 3.0 lub wyżej dla każdej). MSI Afterburner pozwoli monitorować temperatury i wykorzystanie w czasie rzeczywistym.

W grach kompatybilnych z multi-GPU (a jest ich coraz mniej, niestety) powinieneś zobaczyć wykorzystanie obu kart. Testowałem to w Shadow of the Tomb Raider w grudniu 2025 – jedna z ostatnich gier z przyzwoitym wsparciem SLI. Dwie RTX 3080 dawały około 65% wzrost FPS w porównaniu do jednej karty. Brzmi świetnie?

Ale. Tu jest to wielkie „ale”. W Cyberpunk 2077, Starfield, czy Baldur’s Gate 3? Druga karta w zasadzie siedziała bezczynnie, czasem wykorzystana w 5-10%. Kompletnie zmarnowane pieniądze dla gracza.

Typowe problemy i ich rozwiązania

Po latach męczenia się z multi-GPU, stworzyłem sobie listę najczęstszych problemów:

Problem: System widzi tylko jedną kartę. Rozwiązanie: Sprawdź Above 4G Decoding w BIOS. W 80% przypadków to było to. Jeśli nie pomaga, spróbuj wymienić karty miejscami – czasem drugi slot jest dezaktywowany gdy używasz M.2 w określonej pozycji.

Problem: Mikro-zacinki i stuttering w grach. Rozwiązanie: To klasyczny problem SLI/CrossFire. Spróbuj włączyć V-Sync lub limiter FPS. Albo (i to jest moja rekomendacja w 2026) po prostu wyłącz multi-GPU dla gamingu. Nie ma co się męczyć.

Problem: Jedna karta znacznie cieplejsza od drugiej. Rozwiązanie: Popraw przepływ powietrza. Górna karta zawsze będzie cieplejsza, ale różnica nie powinna przekraczać 15°C. Dodaj wentylatory, zwiększ ich obroty, rozważ undervolting.

Problem: Coil whine (pisk cewek) z jednej lub obu kart. Rozwiązanie: Ogranicz FPS w grach do rozsądnych wartości (120-144 fps). Ekstremalnie wysokie FPS (300+) potęgują coil whine. Testowałem to na własnej skórze – lub raczej uszach – z RTX 4090. Przy 400 fps w CS2 brzmiało to jak dręczony kotek.

Łączenie kart AMD – CrossFire w 2026

CrossFire to historia jeszcze smutniejsza niż SLI. AMD oficjalnie przestało promować tę technologię po serii RX 5000. Karty Radeon RX 6000 i 7000 teoretycznie obsługują multi-GPU przez mGPU w DirectX 12 i Vulkan, ale to wymaga bezpośredniego wsparcia ze strony deweloperów gier.

Czyli w praktyce? Prawie nic nie działa. Testowałem dwie RX 7900 XTX w połowie 2025 roku – przez cały miesiąc. Z trzydziestu sprawdzonych przeze mnie gier, dokładnie dwie pokazały jakiekolwiek wykorzystanie drugiej karty: Ashes of the Singularity (bo to benchmark multi-GPU) i Strange Brigade (ostatnia gra z oficjalnym wsparciem AMD mGPU).

Dla zastosowań profesjonalnych – renderowanie w Blenderze, DaVinci Resolve – dwie karty AMD mają sens. Blender Cycles widzi obie karty niezależnie i może renderować na nich jednocześnie. W moich testach dwie RX 7900 XTX renderowały scenę o 89% szybciej niż jedna karta. Całkiem przyzwoicie.

Profesjonalne zastosowania multi-GPU – gdzie to ma sens

No dobra, dość tej mizerii o gamingu. Porozmawiajmy o tym, gdzie dwie karty naprawdę błyszczą. Bo są takie obszary, i to jest właśnie powód, dla którego nadal używam tej konfiguracji.

Renderowanie 3D

Blender, Octane, Redshift, V-Ray – wszystkie te silniki renderujące kochają wiele GPU. I tu nie ma sztuczek z profilami czy wsparciem deweloperskim. Po prostu wykrywają dostępne karty i używają ich wszystkich. Równolegle. Skutecznie.

Moja konfiguracja z dwoma RTX 4090 renderuje finalne sceny dla klientów około 92% szybciej niż jedna karta (nie dokładnie 100%, bo jest overhead). To oznacza, że scena, która zajmowałaby 8 godzin, renderuje się w 4 godziny 10 minut. W miesiącu oszczędzam dosłownie dni czasu. I tu już matematyka się zgadza – druga karta zwróciła się w pół roku.

Machine Learning i AI

Trenowanie modeli AI to kolejny obszar, gdzie multi-GPU jest standardem, nie wyjątkiem. PyTorch i TensorFlow obsługują to natywnie. Kolega pracujący w starcie AI-owym używa czterech (!) RTX A6000 – mówi, że to niezbędne minimum dla ich modeli.

Testowałem fine-tuning modelu Stable Diffusion na dwóch RTX 4090 z NVLink – skrócił czas treningu z 14 godzin do około 7,5 godzin. Tutaj NVLink robi ogromną różnicę przez tę ogromną przepustowość między kartami.

Edycja i dekodowanie wideo

DaVinci Resolve potrafi wykorzystać wiele GPU do obróbki efektów i kolorowania. Adobe Premiere jest w tym gorsze, ale też widzi wiele kart. W moich testach z timeline’m 8K RAW w Resolve, dwie RTX 4070 Ti dawały znacznie płynniejsze odtwarzanie niż jedna – choć nie podwojone, bo inne bottlenecki zaczynają grać rolę (przepustowość dysku, RAM).

Alternatywy dla multi-GPU w 2026

Będę z wami szczery. Jeśli zastanawiasz się nad kupnem drugiej karty do gamingu – po prostu nie rób tego. Kup jedną mocniejszą kartę. RTX 4080 Super będzie lepsza w grach niż dwie RTX 4070, będzie tańsza, cichsza, chłodniejsza, i nie będzie problemów z kompatybilnością.

Pamiętajcie o prawie malejących przychodów. Różnica między RTX 4070 a 4080 jest duża. Różnica między 4080 a 4090 jest mniejsza. A próba kupienia dwóch kart zamiast jednej topowej? W gamingu to totalna wpadka w 2026 roku.

Dla profesjonalistów sytuacja jest inna. Jeśli twój software wykorzysta wiele GPU skutecznie – idź na to. Ale zrób research. Sprawdź benchmarki dla TWOJEGO konkretnego przypadku użycia. Nie zakładaj, że będzie działać idealnie tylko dlatego, że teoretycznie może.

Podsumowanie kluczowych punktów

Dobra, zbierzmy to wszystko w jednym miejscu, bo namieszałem tu sporo:

  • Gaming w 2026: Multi-GPU jest praktycznie martwe. Wsparcie prawie nie istnieje, problemy są częste, koszty nieuzasadnione. Jedyna sensowna opcja to jedna mocna karta.
  • Renderowanie i profesjonalne zastosowania: Tutaj wiele GPU ma pełen sens. Blender, Octane, Redshift, machine learning – wszystko to świetnie skaluje się z dodatkowymi kartami.
  • Wymagania sprzętowe: Potężny zasilacz (1200W+), płyta z odpowiednimi slotami PCIe, dobre chłodzenie. Nie oszczędzaj na zasilaczu, serio.
  • Technologie: SLI praktycznie nie istnieje, CrossFire też. NVLink działa tylko w kartach profesjonalnych. mGPU w DX12/Vulkan wymaga wsparcia od deweloperów, którego nie ma.
  • Instalacja: Fizycznie prosta, ale wymaga uwagi na Above 4G Decoding, Resizable BAR, konfigurację slotów. Sterowniki muszą być aktualne i z oficjalnych źródeł.
  • Problemy: Spodziewaj się stutteringu, nierównomiernych temperatur, problemów z kompatybilnością. To nie jest konfiguracja „plug and play”.

Przez ostatnie osiem lat przetestowałem ponad dwadzieścia konfiguracji multi-GPU. Widziałem szczytowe czasy SLI w erze GTX 980 Ti, gdzie w wielu grach faktycznie dostawało się blisko podwojenia wydajności. Widziałem też powolny upadek tej technologii, gdy deweloperzy przestali się tym interesować. W 2026 roku moja rada jest prosta: dla graczy – nie warto. Dla profesjonalistów w konkretnych branżach – absolutnie warto, ale tylko jeśli twoje oprogramowanie to wykorzysta.

I żeby było jasne – nadal używam dwóch RTX 4090 w moim systemie do renderowania. Ale to drugie stanowisko? Tam gdzie gram? Jedna RTX 4080 Super i nic więcej. Bo w praktyce to jedyna sensowna opcja w obecnych czasach.

Te artykuły mogą Ci się spodobać