AK - zamknięte

 0    276 Datenblatt    patka1555
Drucken spielen überprüfen
 
Frage - Antworten -
Cechy architektury CISC: Czy może być wykonana w VLIW?
Lernen beginnen
FAŁSZ
Cechy architektury CISC: Czy występuje model wymiany danych typu pamięć - pamięć
Lernen beginnen
PRAWDA
Cechy architektury CISC: Jest mała liczba rozkazów
Lernen beginnen
FAŁSZ
Cechy architektury RISC Czy występuje model wymiany danych typu rej-rej
Lernen beginnen
PRAWDA
Cechy architektury RISC Jest mała liczba trybów adresowania
Lernen beginnen
PRAWDA
Cechy architektury RISC Jest wykonywanych kilka rozkazów w jednym takcie
Lernen beginnen
FAŁSZ
Cechy architektury RISC Jest wykonywanych kilka rozkazów w jednym takcie (w danej chwili czasu)
Lernen beginnen
PRAWDA
Cechy architektury RISC Jest wykonywanych kilka instrukcji procesora w jednym rozkazie asemblerowym
Lernen beginnen
FAŁSZ
Cechy architektury RISC Układ sterowania w postaci logiki szytej
Lernen beginnen
PRAWDA
Architektura RISC charakteryzuje się: Niedużą liczbą trybów adresowania
Lernen beginnen
PRAWDA
Architektura RISC charakteryzuje się: Modelem obliczeń pamięć - pamięć
Lernen beginnen
FAŁSZ
Architektura RISC charakteryzuje się: Wykorzystaniem mikroprogramowalnych układów sterujących
Lernen beginnen
FAŁSZ
Architektura RISC charakteryzuje się: Niezbyt obszerną listą rozkazów
Lernen beginnen
PRAWDA
Architektura RISC charakteryzuje się: Intensywnym wykorzystaniem przetwarzania potokowego
Lernen beginnen
PRAWDA
Okna rejestrów Chronią przez hazardem danych
Lernen beginnen
FAŁSZ
Okna rejestrów Minimalizują liczbę odwołań do pamięci operacyjnej przy operacjach wywołania procedur
Lernen beginnen
PRAWDA
Okna rejestrów Są charakterystyczne dla architektury CISC
Lernen beginnen
FAŁSZ
Okna rejestrów Są zamykane po błędnym przewidywaniu wykonania skoków warunkowych.
Lernen beginnen
FAŁSZ
Okna rejestrów Są przesuwane przy operacjach wywołania procedur
Lernen beginnen
PRAWDA
Okna rejestrów Są przesuwane przy wystąpieniu rozkazów rozgałęzień
Lernen beginnen
FAŁSZ
Okna rejestrów Są otwierane przy występowaniu rozkazów rozgałęzień
Lernen beginnen
FAŁSZ
Przetwarzanie potokowe: Nie jest realizowane dla operacji zmiennoprzecinkowych
Lernen beginnen
FAŁSZ
Przetwarzanie potokowe: Nie jest realizowane w procesorach CISC
Lernen beginnen
FAŁSZ
Przetwarzanie potokowe: Daje przyspieszenie nie większe od liczby segmentów (stopni) jednostki potokowej
Lernen beginnen
PRAWDA
Przetwarzanie potokowe: W przypadku wystąpienia zależności między danymi wywołuje błąd i przerwanie wewnętrzne.
Lernen beginnen
FAŁSZ
Przetwarzanie potokowe: Jest realizowane tylko dla operacji zmiennoprzecinkowych
Lernen beginnen
FAŁSZ
Mechanizmy potokowe stosowane są w celu: Uszeregowania ciągu wykonywanych rozkazów
Lernen beginnen
FAŁSZ
Mechanizmy potokowe stosowane są w celu: Uzyskania równoległej realizacji rozkazów
Lernen beginnen
PRAWDA
Mechanizmy potokowe stosowane są w celu: Przyspieszenia realizacji rozkazów
Lernen beginnen
PRAWDA
Hazard danych: Czasami może być usunięty przez zmianę kolejności wykonania rozkazów
Lernen beginnen
PRAWDA
Hazard danych: Nie występuje w architekturze superskalarnej
Lernen beginnen
FAŁSZ
Hazard danych: Jest eliminowany przez zastosowanie specjalnego bitu w kodzie program
Lernen beginnen
FAŁSZ
Hazard danych: Może wymagać wyczyszczenia potoku i rozpoczęcia nowej (...)
Lernen beginnen
FAŁSZ
Jak można ominąć hazard danych: Poprzez rozgałęzienia
Lernen beginnen
FAŁSZ
Jak można ominąć hazard danych: Poprzez rozgałęzienia
Lernen beginnen
FAŁSZ
Jak można ominąć hazard danych: Przez zamianę rozkazów
Lernen beginnen
PRAWDA
Dla uniknięcia hazardu danych można: Zastosować uproszczone metody adresacji
Lernen beginnen
FAŁSZ
Dla uniknięcia hazardu danych można: Wykorzystać szynę zwrotną.
Lernen beginnen
PRAWDA
Dla uniknięcia hazardu danych można: Zastosować specjalny bit w kodzie rozkazu.
Lernen beginnen
FAŁSZ
Dla uniknięcia hazardu danych można: Zastosować tablicę historii rozgałęzień.
Lernen beginnen
FAŁSZ
Dla uniknięcia hazardu danych można: Wstrzymać na 1 takt napełnianie potoku.
Lernen beginnen
PRAWDA
Mechanizm skoków opóźnionych: Polega na opóźnianiu wykonywania skoku do czasu wykonania rozkazu następnego za skokiem
Lernen beginnen
PRAWDA
Mechanizm skoków opóźnionych: Wymaga wstrzymania potoku na jeden takt.
Lernen beginnen
FAŁSZ
Mechanizm skoków opóźnionych: Powoduje błąd na końcu pętli
Lernen beginnen
FAŁSZ
Mechanizm skoków opóźnionych: Wymaga umieszczenia rozkazu NOP za rozkazem skoku lub reorganizacje programu
Lernen beginnen
PRAWDA
Tablica historii rozgałęzień: Zawiera m.in. adresy rozkazów rozgałęzień
Lernen beginnen
PRAWDA
Tablica historii rozgałęzień: Pozwala zminimalizować liczbę błędnych przewidywań rozgałęzień w zagnieżdżonej pętli
Lernen beginnen
PRAWDA
Tablica historii rozgałęzień: Nie może być stosowana w procesorach CISC
Lernen beginnen
FAŁSZ
Tablica historii rozgałęzień: Jest obsługiwana przez jądro systemu operacyjnego
Lernen beginnen
FAŁSZ
Tablica historii rozgałęzień: Jest stosowana do statycznego przewidywania rozgałęzień.
Lernen beginnen
FAŁSZ
Tablica historii rozgałęzień: Pozwala zapamiętać całą historię wykonań każdego rozkazu rozgałęzienia.
Lernen beginnen
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Skok opóźniony
Lernen beginnen
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że rozgałęzienie (skok warunkowy) zawsze nastąpi
Lernen beginnen
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że rozgałęzienie nigdy nie nastąpi
Lernen beginnen
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że kolejne wykonanie rozkazu rozgałęzienia będzie przebiegało tak samo jak poprzednie
Lernen beginnen
PRAWDA
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Wstrzymanie napełniania potoku
Lernen beginnen
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Zapewnienia spójności pamięci podręcznej
Lernen beginnen
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Tablicy historii rozgałęzień
Lernen beginnen
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Techniki wyprzedzającego pobrania argumentu
Lernen beginnen
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Wystawienia do programu rozkazów typu „nic nie rób”
Lernen beginnen
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Protokołu MESI
Lernen beginnen
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Wykorzystania techniki skoków opóźniających
Lernen beginnen
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Technologii MMX
Lernen beginnen
FAŁSZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Wstrzymanie realizowanego wątku i przejście do realizacji innego wątku
Lernen beginnen
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność wyczyszczenia kolejki rozkazów do potoku
Lernen beginnen
PRAWDA
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność wyczyszczenia tablicy historii rozgałęzień.
Lernen beginnen
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Przerwanie realizowanego procesu / wątku i sygnalizacja wyjątku
Lernen beginnen
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność przemianowania rejestrów w procesorach
Lernen beginnen
FAŁASZ
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w 1 takcie zależy od liczby jednostek potokowych w procesorze
Lernen beginnen
PRAWDA
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w jednym takcie, zależy od liczby stopni potoku.
Lernen beginnen
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów pobieranych z pamięci, w każdym takcie musi przekraczać liczbę jednostek potokowych
Lernen beginnen
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w taktach zależy od liczby jednostek potokowych w procesorze
Lernen beginnen
PRAWDA
W procesorach superskalarnych: Jest możliwe równoległe wykonywanie kilku rozkazów w jednym procesorze (rdzeniu)
Lernen beginnen
PRAWDA
W procesorach superskalarnych: Rozszerzenia architektury wykorzystujące model SIMD umożliwiają wykonanie rozkazów wektorowych
Lernen beginnen
PRAWDA
W procesorach superskalarnych: Nie występuje prawdziwa zależność danych
Lernen beginnen
FAŁSZ
W procesorach superskalarnych: Mogą wystąpić nowe formy hazardu danych: zależności wyjściowe między rozkazami oraz antyzależności
Lernen beginnen
PRAWDA
W procesorach superskalarnych: Nie występuje hazard danych (problemy z potokowym wykonaniem rozkazów o zależnych argumentach).
Lernen beginnen
FAŁSZ
W procesorach superskalarnych: Hazard sterowania jest całkowicie eliminowany przez statyczne strategie przewidywania rozgałęzień.
Lernen beginnen
FAŁSZ
Architektura superskalarna: Dotyczy systemów SMP
Lernen beginnen
FAŁSZ
Architektura superskalarna: Wymaga zastosowania protokołu MESI
Lernen beginnen
FAŁSZ
Architektura superskalarna: Umożliwia równoległe wykonywanie kilku rozkazów w jednym procesorze
Lernen beginnen
PRAWDA
Architektura superskalarna: Wywodzi się z architektury VLIW
Lernen beginnen
FAŁSZ
Architektura superskalarna: Wykorzystuje wiele potokowych jednostek funkcjonalnych
Lernen beginnen
PRAWDA
Architektura superskalarna: Nie dopuszcza do wystąpienia hazardu sterowania
Lernen beginnen
FAŁSZ
Architektura superskalarna: Umożliwia wykonanie wielu rozkazów w jednym takcie
Lernen beginnen
PRAWDA
Architektura superskalarna: Wykorzystuje model obliczeń pamięć - pamięć
Lernen beginnen
FAŁSZ
Architektura superskalarna: Jest stosowana tylko w procesorach wielordzeniowych
Lernen beginnen
FAŁSZ
Przetwarzanie wielowątkowe: Zapewnia lepsze wykorzystanie potoków
Lernen beginnen
PRAWDA
Przetwarzanie wielowątkowe: Minimalizuje straty wynikające z chybionych odwołań do pamięci podręcznej
Lernen beginnen
PRAWDA
Przetwarzanie wielowątkowe: Wymaga zwielokrotnienia zasobów procesora (rejestry, liczniki rozkazów, itp.)
Lernen beginnen
PRAWDA
Przetwarzanie wielowątkowe: Nie może być stosowane w przypadku hazardu danych
Lernen beginnen
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MIMD
Lernen beginnen
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Odnosi się m.in. do przetwarzania potokowego
Lernen beginnen
PRAWDA
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MPP
Lernen beginnen
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Dotyczy m.in. architektury superskalarnej
Lernen beginnen
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Komputery wektorowe
Lernen beginnen
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Komputery macierzowe
Lernen beginnen
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Klastry
Lernen beginnen
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Procesory graficzne
Lernen beginnen
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Rozszerzenia SIMD procesorów superskalarnych
Lernen beginnen
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Możliwość wprowadzenia rozkazów różnych wątków do wielu potoków
Lernen beginnen
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Realizację każdego z wątków do momentu wstrzymania któregoś rozkazu z danego wątku
Lernen beginnen
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Przełączanie wątków co takt
Lernen beginnen
FAŁSZ
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Automatyczne przemianowanie rejestrów
Lernen beginnen
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Błędnego przewidywania rozgałęzień
Lernen beginnen
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Chybionego odwołania do pamięci podręcznej
Lernen beginnen
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Prawdziwej zależności danych
Lernen beginnen
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Zależności wyjściowej między rozkazami.
Lernen beginnen
PRAWDA
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Antyzależności między rozkazami
Lernen beginnen
PRAWDA
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Zależności wyjściowej miedzy rozkazami
Lernen beginnen
FAŁSZ
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Prawdziwej zależności danych
Lernen beginnen
PRAWDA
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Błędnego przewidywania rozgałęzień
Lernen beginnen
FAŁSZ
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Antyzależności miedzy rozkazami
Lernen beginnen
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: GFLOPS
Lernen beginnen
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie instrukcji wykonywanych na sekundę
Lernen beginnen
FAŁSZ
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie operacji zmiennoprzecinkowych na sekundę
Lernen beginnen
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Mb/sek
Lernen beginnen
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba jednostek przetwarzających i sterujących w systemach komputerowych
Lernen beginnen
FAŁSZ
Podstawą klasyfikacji Flynna jest: Protokół dostępu do pamięci operacyjnej
Lernen beginnen
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba modułów pamięci operacyjnej w systemach komputerowych
Lernen beginnen
FAŁSZ
Podstawą klasyfikacji Flynna jest: Sposób połączenia jednostek przetwarzających z modułami pamięci operacyjnej.
Lernen beginnen
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba strumieni rozkazów i danych w systemach komputerowych
Lernen beginnen
PRAWDA
Model SIMD: Był wykorzystywany tylko w procesorach macierzowych
Lernen beginnen
FAŁSZ
Model SIMD: Jest wykorzystywany w multimedialnych rozszerzeniach współczesnych procesorów
Lernen beginnen
PRAWDA
Model SIMD: Jest wykorzystywany w heterogenicznej architekturze PowerXCell
Lernen beginnen
PRAWDA
Model SIMD: Zapewnia wykonanie tej samej operacji na wektorach argumentów
Lernen beginnen
PRAWDA
Model SIMD: Jest podstawą rozkazów wektorowych
Lernen beginnen
PRAWDA
Model SIMD: Jest podstawą architektury procesorów superskalarnych
Lernen beginnen
FAŁSZ
Komputery wektorowe: Posiadają jednostki potokowe o budowie wektorowej
Lernen beginnen
FAŁSZ
Komputery wektorowe: Posiadają w liście rozkazów m.in. rozkazy operujące na wektorach danych
Lernen beginnen
PRAWDA
Komputery wektorowe: Wykorzystują od kilku do kilkunastu potokowych jednostek arytmetycznych
Lernen beginnen
PRAWDA
Komputery wektorowe: Posiadają listę rozkazów operujących wyłącznie na wektorach
Lernen beginnen
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy od liczby stopni potoku.
Lernen beginnen
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Jest odwrotnie proporcjonalna do długości taktu zegarowego
Lernen beginnen
PRAWDA
Moc obliczeniowa komputerów wektorowych: Jest wprost proporcjonalna do długości taktu zegarowego
Lernen beginnen
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy odwrotnie proporcjonalnie od liczby jednostek potokowych połączonych łańcuchowo.
Lernen beginnen
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zmierza asymptotycznie do wartości maksymalnej wraz ze wzrostem długości wektora
Lernen beginnen
PRAWDA
Moc obliczeniowa komputerów wektorowych: Nie zależy od długości wektora
Lernen beginnen
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy liniowo od długości wektora
Lernen beginnen
FAŁSZ
Procesory wektorowe: Mogą być stosowane w systemach wieloprocesorowych
Lernen beginnen
PRAWDA
Procesory wektorowe: Mają listę rozkazów operującą jedynie na wektorach
Lernen beginnen
FAŁSZ
Procesory wektorowe: Mają moc kilka razy większą od procesorów skalarnych
Lernen beginnen
PRAWDA
Komputery macierzowe: Mają w liście rozkazów m.in. rozkazy operujące na wektorach danych
Lernen beginnen
PRAWDA
Komputery macierzowe: Mają macierzowe potokowe układy arytmetyczne
Lernen beginnen
FAŁSZ
Komputery macierzowe: Mają w typowych rozwiązaniach zestaw pełnych procesów połączonych siecią połącze
Lernen beginnen
FAŁSZ
Komputery macierzowe: Wykonują synchroniczną operację wektorową w sieci elementów przetwarzającycH
Lernen beginnen
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Macierzy elementów przetwarzających
Lernen beginnen
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Zestawu procesorów superskalarnych
Lernen beginnen
FAŁSZ
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Technologii MMX
Lernen beginnen
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Sieci połączeń typu krata
Lernen beginnen
FAŁSZ
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Potokowych jednostek arytmetycznych
Lernen beginnen
PRAWDA
Rozkazy wektorowe: Nie mogą być wykonywane bez użycia potokowych jednostek arytmetycznych
Lernen beginnen
FAŁSZ
Rozkazy wektorowe: Są charakterystyczne dla architektury SIMD
Lernen beginnen
PRAWDA
Rozkazy wektorowe: Są rozkazami dwuargumentowymi i w wyniku zawsze dają wektor
Lernen beginnen
FAŁSZ
Rozkazy wektorowe: W komputerach wektorowych ich czas wykonania jest wprost proporcjonalny do długości wektora
Lernen beginnen
PRAWDA
Rozkazy wektorowe: W komputerach wektorowych ich czas wykonania jest liniowo zależny od długości wektora
Lernen beginnen
FAŁSZ
Rozkazy wektorowe: W komputerach macierzowych ich czas wykonania jest wprost proporcjonalny do liczby elementów przetwarzających
Lernen beginnen
FAŁSZ
Rozkazy wektorowe: Mogą być wykonane na sieci elementów przetwarzających.
Lernen beginnen
PRAWDA
Architektura CUDA: Umożliwia bardzo wydajne wykonywanie operacji graficznych
Lernen beginnen
PRAWDA
Architektura CUDA: Stanowi uniwersalną architekturę obliczeniowa połączoną z równoległym modelem programistycznym
Lernen beginnen
PRAWDA
Architektura CUDA: Realizuje model obliczeniowy SIMT
Lernen beginnen
PRAWDA
Architektura CUDA: Jest podstawą budowy samodzielnych, bardzo wydajnych komputerów
Lernen beginnen
FAŁSZ
Systemy SMP: Wykorzystują protokół MESI do sterowania dostępem do wspólnej magistrali
Lernen beginnen
FAŁSZ
Systemy SMP: Posiadają skalowalne procesory
Lernen beginnen
FAŁSZ
Systemy SMP: Posiadają pamięć fizycznie rozproszoną, ale logicznie wspólną
Lernen beginnen
FAŁSZ
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Zapewniają spójność pamięci podręcznych wszystkich procesorów
Lernen beginnen
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Mają niską skalowalność
Lernen beginnen
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Wykorzystują katalog do utrzymania spójności pamięci.
Lernen beginnen
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Wykorzystują przesył komunikatów między procesorami.
Lernen beginnen
FAŁSZ
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Umożliwiają dostęp do pamięci najczęściej poprzez wspólną magistralę lub przełącznicę krzyżową.
Lernen beginnen
PRAWDA
Protokół MESI: Jest wykorzystywany do sterowania dostępem do magistrali w systemie SMP
Lernen beginnen
FAŁSZ
Protokół MESI: Zapewnia spójność pamięci cache w systemie SMP
Lernen beginnen
PRAWDA
Protokół MESI: Służy do wymiany komunikatów w systemie MPP
Lernen beginnen
FAŁSZ
Protokół MESI: Chroni przed hazardem w procesorach superskalarnych
Lernen beginnen
FAŁSZ
W architekturze NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej (PaP)
Lernen beginnen
PRAWDA
W architekturze NUMA: Spójność PaP węzłów jest utrzymywana za pomocą protokołu MESI
Lernen beginnen
FAŁSZ
W architekturze NUMA: Czas dostępu do pamięci lokalnej w węźle jest podobny do czasu dostępu do pamięci nielokalnej
Lernen beginnen
FAŁSZ
W architekturze NUMA: Czas zapisu danych do pamięci nielokalnej może być znacznie dłuższy od czasu odczytu z tej pamięci
Lernen beginnen
PRAWDA
W architekturze NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
Lernen beginnen
PRAWDA
W architekturze NUMA: Procesy komunikują się poprzez przesył komunikatów
Lernen beginnen
FAŁSZ
W architekturze NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
Lernen beginnen
PRAWDA
W architekturze CC-NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
Lernen beginnen
PRAWDA
W architekturze CC-NUMA: Spójność pamięci pomiędzy węzłami jest utrzymywana za pomocą protokołu MESI
Lernen beginnen
FAŁSZ
W architekturze CC-NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej
Lernen beginnen
PRAWDA
W architekturze CC-NUMA: Pamięć operacyjna jest fizycznie rozproszona pomiędzy węzłami, ale wspólna logicznie
Lernen beginnen
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Spójność pamięci wszystkich węzłów jest utrzymywana za pomocą katalogu
Lernen beginnen
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
Lernen beginnen
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Każdy procesor ma bezpośredni dostęp do pamięci operacyjnej każdego węzła
Lernen beginnen
FAŁSZ
W systemach wieloprocesorowych o architekturze CC-NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej
Lernen beginnen
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Rodzaju dostępu (odczyt - zapis)
Lernen beginnen
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Stanu linii (zapisanego w katalogu), do której następuje odwołanie
Lernen beginnen
FAŁSZ
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Położenia komórki, do której odwołuje się rozkaz (lokalna pamięć węzła – pamięć innego węzła)
Lernen beginnen
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Odległości węzłów, zaangażowanych w wykonanie rozkazu, w strukturze sieci łączącej
Lernen beginnen
FAŁSZ
Katalog może być stosowany do: Utrzymania spójności pamięci podręcznych poziomu L1 i L2 w procesorach wielordzeniowych
Lernen beginnen
FAŁSZ
Katalog może być stosowany do: Utrzymania spójności pamięci wszystkich węzłów w systemach CC-NUMA
Lernen beginnen
PRAWDA
Katalog może być stosowany do: Sterowania realizacją wątków w architekturze CUDA
Lernen beginnen
FAŁSZ
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Przełącznicy krzyżowej
Lernen beginnen
FAŁSZ
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Katalogu
Lernen beginnen
PRAWDA
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Protokołu MESI
Lernen beginnen
PRAWDA
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Wspólnej magistrali
Lernen beginnen
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Zapewniają jednorodny dostęp do pamięci
Lernen beginnen
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Mogą wykorzystywać procesory CISC
Lernen beginnen
PRAWDA
Systemy wieloprocesorowe z pamięcią wspólną: Są wykorzystywane w klastrach
Lernen beginnen
PRAWDA
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują przesył komunikatów między procesorami
Lernen beginnen
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują katalog do utrzymania spójności pamięci podręcznych
Lernen beginnen
PRAWDA
W systemach wieloprocesorowych katalog służy do: Śledzenia adresów w protokole MESI
Lernen beginnen
FAŁSZ
W systemach wieloprocesorowych katalog służy do: Sterowania przesyłem komunikatów
Lernen beginnen
FAŁSZ
W systemach wieloprocesorowych katalog służy do: Utrzymania spójności pamięci w systemach o niejednorodnym dostępie do pamięci
Lernen beginnen
PRAWDA
W systemach wieloprocesorowych katalog służy do: Realizacji dostępu do nielokalnych pamięci w systemach NUMA
Lernen beginnen
PRAWDA
Charakterystyczne cechy architektury MPP: Spójność pamięci podręcznej wszystkich węzłów
Lernen beginnen
FAŁSZ
Charakterystyczne cechy architektury MPP: Fizycznie rozproszona PaO
Lernen beginnen
PRAWDA
Charakterystyczne cechy architektury MPP: Fizycznie rozproszona PaO, ale logicznie wspólna
Lernen beginnen
FAŁSZ
Charakterystyczne cechy architektury MPP: Przesył komunikatów między procesorami
Lernen beginnen
PRAWDA
Charakterystyczne cechy architektury MPP: Niska skalowalność
Lernen beginnen
FAŁSZ
Charakterystyczne cechy architektury MPP: Jednorodny dostęp do pamięci wszystkich węzłów
Lernen beginnen
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wyróżniają się bardzo dużą skalowalnością
Lernen beginnen
PRAWDA
Systemy pamięcią rozproszoną (MPP): Są budowane z węzłów, którymi są klastry
Lernen beginnen
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Realizują synchronicznie jeden wspólny program
Lernen beginnen
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wymagają zapewnienia spójności pamięci podręcznych pomiędzy węzłami
Lernen beginnen
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wymianę danych i synchronizację procesów w węzłach realizują poprzez przesył komunikatów.
Lernen beginnen
PRAWDA
Systemy pamięcią rozproszoną (MPP): W większości przypadków wykorzystują nietypowe, firmowe rozwiązania sieci łączących węzły systemu.
Lernen beginnen
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wykorzystują katalog do utrzymania spójności pamięci węzłów systemu.
Lernen beginnen
FAŁSZ
Systemy pamięcią rozproszoną (MPP): W roli węzłów mogą wykorzystywać systemy SMP.
Lernen beginnen
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Systemy SMP
Lernen beginnen
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Klastry
Lernen beginnen
FAŁSZ
Systemy MPP są zbudowane z węzłów którymi mogą być: Konstelacje
Lernen beginnen
FAŁSZ
Systemy MPP są zbudowane z węzłów którymi mogą być: Systemy NUMA
Lernen beginnen
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Procesory
Lernen beginnen
PRAWDA
Przesył komunikatów: Ma miejsce w systemach MPP
Lernen beginnen
PRAWDA
Przesył komunikatów: W systemach MPP II-giej generacji angażuje wszystkie procesory na drodze przesyłu
Lernen beginnen
FAŁSZ
Przesył komunikatów: Ma miejsce w klastrach
Lernen beginnen
PRAWDA
Cechami wyróżniającymi klastry są: Niezależność programowa każdego węzła
Lernen beginnen
PRAWDA
Cechami wyróżniającymi klastry są: Fizycznie rozproszona, ale logicznie wspólna pamięć operacyjna
Lernen beginnen
FAŁSZ
Cechami wyróżniającymi klastry są: Nieduża skalowalność
Lernen beginnen
FAŁSZ
Cechami wyróżniającymi klastry są: Na ogół duża niezawodność Tak, po to się je buduje i na ogół
Lernen beginnen
PRAWDA
Klastry: Mają średnią skalowalność
Lernen beginnen
FAŁSZ
Klastry: Wykorzystują model wspólnej pamięci
Lernen beginnen
FAŁSZ
Klastry: W węzłach mogą wykorzystywać systemy SMP
Lernen beginnen
PRAWDA
Klastry: Do komunikacji między procesami wykorzystują przesył komunikatów
Lernen beginnen
PRAWDA
Klastry: Wykorzystują przełącznicę krzyżową jako sieć łączącą węzły
Lernen beginnen
FAŁSZ
Klastry: W każdym węźle posiadają pełną instalację systemu operacyjnego
Lernen beginnen
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Mechanizm mirroringu dysków
Lernen beginnen
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Dostęp każdego węzła do wspólnych zasobów (pamięci zewnętrznych)
Lernen beginnen
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Redundancja węzłów
Lernen beginnen
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Mechanizm ”heartbeat”
Lernen beginnen
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Zastosowanie procesorów wielordzeniowych w węzłach
Lernen beginnen
FAŁSZ
Dla sieci systemowych (SAN) są charakterystyczne Przesył komunikatów w trybie zdalnego DMA
Lernen beginnen
PRAWDA
Dla sieci systemowych (SAN) są charakterystyczne Bardzo małe czasy opóźnień
Lernen beginnen
PRAWDA
Dla sieci systemowych (SAN) są charakterystyczne Topologia typu hipersześcian
Lernen beginnen
FAŁSZ
Dla sieci systemowych (SAN) są charakterystyczne Niska przepustowość
Lernen beginnen
FAŁSZ
Sieci systemowe (SAN) Wymagają protokołu MESI
Lernen beginnen
FAŁSZ
Sieci systemowe (SAN) Wykorzystują przełączniki łączone wg topologii grubego drzewa
Lernen beginnen
PRAWDA
Sieci systemowe (SAN) Realizują przesyły bloków danych bezpośrednio między pamięciami operacyjnymi węzłów sieci
Lernen beginnen
PRAWDA
Sieci systemowe (SAN) Są stosowane w klastrach
Lernen beginnen
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy ściśle połączone, systemy ze wspólną pamięcią, systemy SMP
Lernen beginnen
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy ze wspólną magistralą, systemy wielomagistralowe, systemy z przełącznicą krzyżową
Lernen beginnen
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy SMP, systemy z pamięcią wieloportową, systemy z przełącznicą krzyżową
Lernen beginnen
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: NUMA, MPP, SMP
Lernen beginnen
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy z pamięcią wspólną, systemy o niejednorodnym dostępie do pamięci, z pamięcią rozproszoną
Lernen beginnen
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: SMP, NUMA, klastry, UMA
Lernen beginnen
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy symetryczne, o niejednorodnym dostępie do pamięci, systemy z przesyłem komunikatów
Lernen beginnen
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Chybienia przy odwołaniu do pamięci podręcznej.
Lernen beginnen
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Upływu zadanego czasu (np. taktu)
Lernen beginnen
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Wystąpienia rozkazu rozgałęzienia
Lernen beginnen
FAŁSZ
Sprzętowe przełączenie wątków może być wynikiem: Błędnego przewidywania rozgałęzień
Lernen beginnen
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Przesunięcia okien rejestrów
Lernen beginnen
FAŁSZ
Sprzętowe sterowanie wielowątkowością: Zapewnia lepsze wykorzystanie potoków.
Lernen beginnen
PRAWDA
Sprzętowe sterowanie wielowątkowością: Wymaga zwielokrotnienia zasobów procesora (rejestry, liczniki rozkazów i inne)
Lernen beginnen
PRAWDA
Sprzętowe sterowanie wielowątkowością: Nie może być stosowane w przypadku hazardu sterowania
Lernen beginnen
FAŁSZ
Sprzętowe sterowanie wielowątkowością: M.in. minimalizują straty wynikające z chybionych odwołań do pamięci podrecznej
Lernen beginnen
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: NUMA
Lernen beginnen
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: SMP
Lernen beginnen
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: Klaster
Lernen beginnen
FAŁSZ
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: MPP
Lernen beginnen
FAŁSZ
Procesory wielordzeniowe: Są niezbędne do realizacji rozkazów wektorowych.
Lernen beginnen
FAŁSZ
Procesory wielordzeniowe: Są niezbędne do współbieżnego przetwarzania wątkowego.
Lernen beginnen
PRAWDA

Sie müssen eingeloggt sein, um einen Kommentar zu schreiben.