PSI

 0    41 Datenblatt    mateuszzarzecznymodliborzyce
mp3 downloaden Drucken spielen überprüfen
 
Frage język polski Antworten język polski
Drzewo decyzyjne
Lernen beginnen
Model uczenia nadzorowanego podejmujący decyzje poprzez sekwencję pytań o cechy danych
Elementy drzewa decyzyjnego
Lernen beginnen
Składa się z korzenia węzłów decyzyjnych oraz liści zawierających decyzję
Zasada działania drzewa
Lernen beginnen
Dane są dzielone według cech tak aby jak najlepiej rozdzielić klasy lub zminimalizować błąd
Overfitting
Lernen beginnen
Zbyt dobre dopasowanie modelu do danych treningowych skutkujące słabą generalizacją
Jak przeciwdziałać overfittingowi
Lernen beginnen
Ograniczyć głębokość drzewa zastosować przycinanie lub minimalną liczbę próbek
Bagging
Lernen beginnen
Metoda zespołowa polegająca na trenowaniu wielu modeli na losowych próbkach danych
Cel baggingu
Lernen beginnen
Zmniejszenie wariancji modelu i ograniczenie overfittingu
Random Forest
Lernen beginnen
Zespół drzew decyzyjnych uczonych metodą baggingu z losowym wyborem cech
Gradient Boosting
Lernen beginnen
Metoda zespołowa w której kolejne modele uczą się na błędach poprzednich
Cel gradient boosting
Lernen beginnen
Minimalizacja błędu poprzez stopniowe poprawianie słabych modeli
SVM
Lernen beginnen
Metoda klasyfikacji i regresji oparta na maksymalizacji marginesu między klasami
SVR
Lernen beginnen
Wersja regresyjna SVM przewidująca wartości ciągłe z tolerancją błędu
Różnica SVM i SVR
Lernen beginnen
SVM służy do klasyfikacji a SVR do regresji
Model liniowy
Lernen beginnen
Model opisujący zależność liniową pomiędzy cechami a wynikiem
Model wielomianowy
Lernen beginnen
Model umożliwiający opisywanie zależności nieliniowych
Zmiana modelu liniowego na wielomianowy
Lernen beginnen
Zwiększa elastyczność modelu ale grozi overfittingiem
Klasyfikacja
Lernen beginnen
Przypisywanie obiektów do jednej z określonych klas
Regresja
Lernen beginnen
Przewidywanie wartości liczbowych ciągłych
Klasteryzacja
Lernen beginnen
Grupowanie danych bez etykiet na podstawie podobieństwa
Różnica klasyfikacji i klasteryzacji
Lernen beginnen
Klasyfikacja używa etykiet a klasteryzacja nie
K means
Lernen beginnen
Algorytm klasteryzacji dzielący dane na k klastrów minimalizując odległość od centroidów
Wady K means
Lernen beginnen
Wymaga podania liczby klastrów i jest wrażliwy na obserwacje odstające
Klasteryzacja hierarchiczna
Lernen beginnen
Metoda tworząca hierarchię klastrów poprzez ich łączenie lub dzielenie
Klasteryzacja gęstościowa
Lernen beginnen
Metoda oparta na zagęszczeniu punktów danych np DBSCAN
Różnica hierarchicznej i gęstościowej
Lernen beginnen
Hierarchiczna tworzy strukturę drzewa a gęstościowa wykrywa skupiska
Macierz pomyłek
Lernen beginnen
Tabela przedstawiająca poprawne i błędne decyzje klasyfikatora
True Positive
Lernen beginnen
Poprawnie wykryta klasa pozytywna
False Positive
Lernen beginnen
Błędnie wykryta klasa pozytywna
False Negative
Lernen beginnen
Niewykryta klasa pozytywna
True Negative
Lernen beginnen
Poprawnie wykryta klasa negatywna
Accuracy
Lernen beginnen
Stosunek poprawnych predykcji do wszystkich predykcji
Precision
Lernen beginnen
Udział poprawnych predykcji pozytywnych we wszystkich pozytywnych
Recall
Lernen beginnen
Udział wykrytych przypadków pozytywnych
F1 score
Lernen beginnen
Średnia harmoniczna precision i recall
Zastosowanie precision
Lernen beginnen
Stosowana gdy ważne jest ograniczenie fałszywych alarmów
Zastosowanie recall
Lernen beginnen
Stosowana gdy ważne jest wykrycie wszystkich przypadków
Regresja liniowa
Lernen beginnen
Model opisujący liniową zależność pomiędzy zmiennymi
Założenie regresji liniowej
Lernen beginnen
Reszty mają rozkład normalny i stałą wariancję
Regresja odporna
Lernen beginnen
Regresja niewrażliwa na obserwacje odstające
Błąd średniokwadratowy
Lernen beginnen
Miara jakości regresji oparta na średnim kwadracie błędów
Różnica regresji i klasyfikacji
Lernen beginnen
Regresja przewiduje wartości a klasyfikacja klasy

Sie müssen eingeloggt sein, um einen Kommentar zu schreiben.