158660
Book
In basket
Motywacja Nowe życie starych metod Perceptrony i separowalność liniowa Właściwości sieci neuronowej Podstawowa struktura sieci neuronowej Uczenie Weryfikacja Metoda odłóż-k-próbek Klasyfikacja Decyzje dwuwartościowe Podejmowanie decyzji Klasyfikacja wielokrotna Odrzucanie kategorii Podejmowanie decyzji Inne schematy kodowania Uczenie z nadzorem i bez nadzoru Autoasocjacja Filtrowanie autoasocjacyjne Kod filtrowania autoasocjayjnego Redukcja szumu Uczenie prototypów na przykładach Prezentacja osobliwych przypadków Uzupełnianie wzorców Korekcja błędów Kodowanie słów Kompresja danych Prognoza szeregów czasowych Model podstawowy Dane wejściowe Eliminacja trendu Kod eliminowania i uwzględniania trendu Zmienność sezonowa Różnicowanie Skalowanie Prognoza wielokrotna Predyktory wielokrotne Miary błędu prognozy Aproksymacja funkcji Aproksymacja funkcji jednej zmiennej Modelowanie odwrotne Regresja wielokrotna Sieci wielowarstwowe Jednokierunkowe Architektura podstawowa Funkcja aktywacji Przykład sieci Liniowe neurony wyjściowe Dyskusja teoretyczna Literatura na temat teorii sieci jednokierunkowych Algorytmy realizacji sieci Uczenie sieci Uczenie metodą propagacji wstecznej błędu Uczenie metodą gradientów sprzężonych Minimalizacja kierunkowa Wybór kierunku minimalizacji Unikanie minimów lokalnych przy| uczeniu Minima lokale łatwo się pojawiają Minima błędne Inne środki ucieczki Kiedy stosować sieć wielowarstwową jednokierunkową Unikanie minimów lokalnych: I. Symulowane wyżarzanie Informacje ogólne Wybór parametrów wyżarzania Wariant uczenia sieci Jednokierunkowych Przykład programu Przykład funkcji Generowanie liczb losowych Drogi rozwoju Unikanie minimów lokalnych: II. Optymalizacja genetyczna Informacje ogólne Projektowanie struktury genetycznej Ocena Selekcja rodziców Reprodukcja Mutacja Procedura minimalizacji genetycznej Optymalizacja genetyczna wybranych funkcji Zaawansowane problemy optymalizacji genetycznej Kody Graya Nadinicjalizacja Krzyżowanie dwupunktowe Regresja i sieci neuronowe Rozkład na wartości szczególne (SVD) Regresja w sieciach neuronowych Projektowanie architektury sieci jednokierunkowych Ile warstw ukrytych? Ile neuronów ukrytych? Jak długo uczyć sieć? Interpretacja wag: Jak to działa? Cechy ogólne wykorzystywane przez sieci Cechy wykorzystywane przez określoną sieć Badanie wektorów wag Diagramy Hintona Grupowanie Analiza wrażliwości Wejścia typowe Probabilistyczne sieci neuronowe Aspekty obliczeniowe Optymalizacja sigmy Modele pokrewne Przegląd programu Optymalizacja sigmy Inne kryteria optymalizacji Miary ufności Bayesa Wersje autoasocjacyjne Kiedy stosować probabilistyczne sieci neuronowe? Sieci połączeń funkcjonalnych Zastosowanie do aproksymacji nieliniowej Matematyka sieci połączeń funkcjonalnych Kiedy stosować sieci połączeń funkcjonalnych?? Sieci hybrydowe Sieć połączeń funkcjonalnych jako warstwa ukryta Szybkie miary ufności Bayesa Uczenie sieci Przetwarzanie i skupianie uwagi Zadania podzielne Uczenie sieci redukujący dane Dzielenie zadań nie zawsze jest skuteczne Projektowanie zbioru uczącego Liczba próbek Pospolite błędy przypadkowe Nadmierne dopasowanie Rozmiar sieci wpływu na rozmiar zbioru uczącego Rozwarstwienie zbioru uczącego Przypadki graniczne Ukryte błędy systematyczne Równoważenie klas Bezsensowne przypadki Przygotowanie danych wejściowych Typy pomiarów Zmienne nominalne Zmienne porządkowe Zmienne interwałowe Zmienne stosunkowe Czy skalowanie jest zawsze konieczne? Przekształcenia Nieciągłość kołowa Kąty widzenia Odcienie barw Dane odstające Odrzucanie danych Brakujące dane Przetwarzanie danych rozmytych Traktowanie wartości rozmytych jako nominalnych i porządkowych Zalety przetwarzania rozmytego Interfejs sieci neuronowe-zbiory rozmyte Funkcje przynależności Zmienne ciągłe Dziedziny wielu zmiennych Zmienne dyskretne Bariery Negacje, koniunkcje i alternatywa Modus ponens Łączenie operacji Defuzyfikacja Metoda maksymalnej wysokości Metoda centroidy Kody operacji na zbiorach rozmytych Konstruktory Negacja i skalowanie Koniunkcja i alternatywa Centroida Przekłady przetwarzania rozmytego przed użyciem sieci neuronowej Upraszczanie interakcji Kodowanie rozmytego jeden-z-n Przykład rozmytego przetwarzania końcowego po użyciu sieci neuronowej Prosta przynależność wyjścia Przetwarzanie końcowe z defuzyfikacją Uczenie bez nadzoru Normalizacja sygnałów wejściowych Normalizacja osi Z Uczenie sieci Kohonena Aktualizacja wag Współczynnik uczenia Pomiar błędu siec Określenie zbieżności Neurony, które nie chcą się uczyć Samoorganizacja Ocena jakości sieci neuronowych Błąd średniokwadratowy Problemy z błędem średniokwadratowym Miary pokrewne błędu średniokwadratowego Funkcje kosztu Macierz pomyłek Krzywe charakterystyki roboczej odbiorcy (CRO) Obliczenia całki krzywej CRO Funkcje kosztu i krzywe CRO Stosunek sygnału do szumu Miary ufności Testowanie indywidualnych hipotez Obliczanie poziomu ufności Poziom ufności hipotezy zerowej Klasy wielokrotne Zaufanie do ufności Przykłady programów Sortowanie Oszacowanie rozkładu Oszacowanie poziomu ufności Metody Bayesa Przykłady programu Klasy wielokrotne Testowanie hipotez a metoda Bayesa Optymalizacja progu decyzyjnego Stosowanie programu NEURAL Modele wyjściowe Model CLASSIFY Model AUTO Model GENERAL Tworzenie zbioru uczącego Model sieci warstwowej LAYER Inicjalizacja wag metodą symulowanego wyżarzania Inicjalizacja wag metoda optymalizacji genetycznej Algorytm uczenia Model sieci KOHONEN Inicjalizacja i uczenie sieci Macierze pomyłek Zapisywanie wag i wyników obliczeń
Media files:
Availability:
Wypożyczalnia
There are copies available to loan: sygn. 92407, 92405, 92406, 92404 (4 egz.)
Notes:
General note
Tyt. oryg.: Practical Neural Neywork Recipes in C++.
Bibliography, etc. note
Bibliogr. s. 440-451. Indeks.
The item has been added to the basket. If you don't know what the basket is for, click here for details.
Do not show it again

Deklaracja dostępności