158672
Książka
W koszyku
0O sztucznej inteligencji JAROSŁAW CHUDZ1AK, TOMASZ ClAMBIN, PlOTB GAWRYSIAK, MIECZYSŁAW MuRASZKIEWICZ 2Przeszukiwanie i optymalizacja RAFAŁ BIEDRZYCKI, WIKTOR DASZCZUK, ROUERT NOWAK, PAWEŁ WAWRZYŃSKI 2.1Metody klasyczne w SI 2.2.1Metoda Newtona 2.2.2Metoda Levenberga 2.2.3Metoda gradientu prostego 2.2.4Metoda stochastycznego najszybszego spadku 2.3Przeszukiwanie przestrzeni stanów 2.3.1Strategie ślepe 2.3.2Strategie heurystyczne 2.3.3Gry dwuosobowe, algorytm MiniMax 2.4Algorytmy ewolucyjne i inne metaheurystyki 2.4.1Algorytm genetyczny 2.4.2Algorytm ewolucyjny 2.4.3Strategia ewolucyjna ES(1 + 1) 2.4.4Strategie ewolucyjne ES(/J + A), ES(/x, A) 2.4.5Inne metaheurystyki 3Uczenie maszynowe PAWEŁ CICHOSZ 3.1Systemy uczące się 3.1.1W stronę definicji uczenia się 3.1.2Rodzaje informacji trenującej 3.1.3Wprowadzenie do uczenia indukcyjnego 3.2Drzewa decyzyjne 3.2.1Drzewa decyzyjne jako reprezentacja modelu 3.2.2Zstępująca budowa drzewa 3.2.3Kryterium stopu 3.2.4Kryterium wyboru podziału 3.2.5Przycinanie drzewa 3.2.G Predykcja probabilistyczna 3.2.7Drzewa regresji 3.2.8Właściwości drzew decyzyjnych 3.3Modele liniowe 3.3.1Regresja liniowa 3.3.2Klasyfikacja liniowo-progowa 3.3.3Regresja logistyczna 3.3.4Obsługa atrybutów dyskretnych 3.3.5Klasyfikacja wieloklasowa 3.3.C Właściwości modeli liniowych 3.4Naiwny klasyfikator bayesowski 3.4.1Wnioskowanie bayesowskie 3.4.2Estymacja prawdopodobieństw 3.4.3Prawdopodobieństwa zerowe i prawie zerowe101 3.4.4Atrybuty ciągłe 3.4.5Predykcja 3.4.G Właściwości naiwnego klasyfikatora bayesowskiego 3.5Las losowy 3.5.1Modele zespołowe 3.5.2Tworzenie modeli bazowych 3.5.3Łączenie predykcji 3.5.4Budowa lasu losowego 3.5.5Predykcja lasu losowego 3.5.6Ocena predykcyjnej użyteczności atrybutów 3.5.7Właściwości lasów losowych 3.6Algorytm SVM 3.6.1Udoskonalenie klasyfikacji liniowo-progowej 3.6.2Maksymalizacja marginesu klasyfikacji 3.6.3Twardy margines 3.6.4Miękki margines 3.6.5Postać dualna 3.6.6Funkcje jądrowe 3.6.7Właściwości algorytmu SVM 3.7Ocena jakości modeli 3.7.1Miary jakości klasyfikacji 3.7.2Miary jakości regresji 3.7.3Procedury oceny 3.8Elementy teorii uczenia się 3.8.1Klasy pojęć i przestrzenie modeli 3.8.2PAC-nauczalność 3.8.3PAC-uczenie się dla algorytmów spójnych 3.8.4Uczenie agnostyczne 3.8.5 Wymiar Vapnika-Chervonenkisa 3.8.G Podsumowanie wniosków z teorii 4Sieci neuronowe KAROL PICZAK, PAWEŁ WAWRZYŃSKI 4.1Perceptron wielowarstwowy 4.1.1Model neuronu 4.1.2Perceptron dwuwarstwowy 4.1.3Własność uniwersalnej aproksymacji 4.1.4Perceptron wielowarstwowy 4.2Uczenie sieci neuronowej 4.2.1Uczenie jako rozwiązanie problemu optymalizacji 4.2.2Skalowanie wejść i wyjść, inicjacja wag 4.2.3Wsteczna propagacja gradientu 4.2.4Algorytmy optymalizacji 4.3Rekurencyjne sieci neuronowe 4.3.1Uczenie rekurencyjnej sieci neuronowej 4.3.2Sieci LSTM 4.3.3Sieci GRU 4.4Hiperparametry struktury i procesu uczenia sieci 4.4.1Funkcje aktywacji neuronów 4.4.2Inicjacja wag 4.4.3Normalizacja 4.4.4Dobór wielkości sieci 4.4.5Wczesne zatrzymanie uczenia 4.4.6Regularyzacja 4.4.7Inne techniki poprawy generalizacji 4.5Modele splotowe 4.5.1Operacja splotu 4.5.2Warstwy splotowe 4.5.3Złożone architektury splotowe 5O związkach etyki i sztucznej inteligencji KATARZYNA BUDZYŃSKA, MIECZYSŁAW MURASZKIEWICZ 5.1Wybrane dylematy i problemy 5.2Sztuczna inteligencja godna zaufania
Pliki multimedialne:
Status dostępności:
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 152435 N (1 egz.)
Strefa uwag:
Uwaga dotycząca bibliografii
Bibliografia, netografia na stronach 211-217. Indeks.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności