158660
Book
In basket
Deep learning : praktyczne wprowadzenie z zastosowaniem środowiska Pythona / Ron Kneusel ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 472 strony : fotografie, ilustracje, wykresy ; 23 cm.
Środowisko operacyjne NumPy scikit-learn Keras i TensorFlow Instalacja narzędzi Podstawy algebry liniowej Wektory Macierze Mnożenie wektorów i macierzy Statystyka i prawdopodobieństwo Statystyka opisowa Rozkłady prawdopodobieństwa Testy statystyczne Procesory graficzne (GPU) 2. Korzystanie z Pythona Interpreter Pythona Instrukcje i białe znaki Zmienne i podstawowe struktury danych Przedstawianie liczb Zmienne Łańcuchy znaków Listy Słowniki Struktury sterowania Instrukcje if-elif-else Pętle for Pętle while Instrukcje break i continue Instrukcja with Obsługa błędów za pomocą bloków try-except Funkcje Moduły 3. Biblioteka NumPy Dlaczego NumPy? Tablice a listy Testowanie szybkości tablic i list Definiowanie tablicy za pomocą funkcji, np. array Definiowanie tablic wypełnionych zerami i jedynkami Dostęp do elementów tablicy Indeksowanie tablicowe Uzyskiwanie wycinków tablicy Wielokropek Operatory i rozgłaszanie Dane wejściowe i wyjściowe tablic Liczby losowe Biblioteka NumPy i obrazy 4. Praca z danymi Klasy i etykiety Cechy i wektory cech Dobór cech i klątwa wymiarowości Własności dobrego zestawu danych Interpolacja i ekstrapolacja Główny rozkład prawdopodobieństwa Rozkład a priori Przykłady mylące Rozmiar zestawu danych Przygotowanie danych Skalowanie cech Brakujące cechy Dane uczące, walidacyjne i testowe Trzy podzbiory Dzielenie zestawu danych k-krotny sprawdzian krzyżowy Analiza danych Wyszukiwanie problemów z danymi 5. Budowanie zestawów danych Kosaćce (zestaw danych Iris) Nowotwory piersi (zestaw danych Breast Cancer) Cyfry zapisane pismem odręcznym (zestaw danych MNIST) Różne obrazy (zestaw danych CIFAR-10) Rozszerzanie danych Dlaczego należy rozszerzać dane uczące? Sposoby rozszerzania danych Rozszerzanie zestawu danych Iris Rozszerzanie zestawu danych CIFAR-10 6. Klasyczne uczenie maszynowe Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne i lasy losowe Rekurencja Budowanie drzew decyzyjnych Lasy losowe Maszyny wektorów nośnych Marginesy Wektory nośne Optymalizacja Jądra 7. Eksperymentowanie z klasycznymi modelami Eksperymenty z użyciem zestawu danych Iris Testowanie klasycznych modeli Implementacja klasyfikatora najbliższego centroidu Eksperymenty z użyciem zestawu danych Breast Cancer Dwa pierwsze przebiegi testowe Skutek losowych podziałów Dodawanie k-krotnego sprawdzianu krzyżowego Poszukiwanie hiperparametrów Eksperymenty z użyciem zestawu danych MNIST Testowanie klasycznych modeli Analiza czasu działania Eksperymenty z głównymi składowymi analizy PCA Tasowanie zestawu danych Podsumowanie klasycznych modeli Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Lasy losowe Maszyny wektorów nośnych Kiedy używać klasycznych modeli? Korzystanie z małych zestawów danych Ograniczone zasoby obliczeniowe Dostęp do wyjaśnialnych modeli Praca z danymi wektorowymi 8. Wprowadzenie do sieci neuronowych Anatomia sieci neuronowej Neuron Funkcje aktywacji Architektura sieci Warstwy wyjściowe Wagi i obciążenia Implementacja prostej sieci neuronowej Przygotowanie zestawu danych Implementacja sieci neuronowej Uczenie i testowanie sieci neuronowej 9. Uczenie sieci neuronowej Algorytm gradientu prostego Wyszukiwanie minimów Aktualizowanie wag Stochastyczny spadek wzdłuż gradientu Grupy i minigrupy Funkcje wypukłe i niewypukłe Kończenie uczenia Aktualizowanie współczynnika uczenia Momentum Propagacja wsteczna Propagacja wsteczna - ujęcie pierwsze Propagacja wsteczna - ujęcie drugie Funkcje straty Błąd bezwzględny i błąd średniokwadratowy Entropia krzyżowa Inicjalizowanie wag Przetrenowanie i regularyzacja Przetrenowanie Regularyzacja Regularyzacja L2 Porzucanie 10. Eksperymentowanie z sieciami neuronowymi Nasz zestaw danych Klasa MLPClassifier Struktura sieci i funkcje aktywacji Kod Rozmiar grupy Podstawowy współczynnik uczenia Rozmiar zbioru uczącego Regularyzacja L2 Momentum Inicjalizacja wag Kolejność cech Ocenianie modeli Dlaczego dokładność jest niewystarczająca? Macierz pomyłek 2×2 Wskaźniki wyprowadzane z macierzy pomyłek Wyprowadzanie wskaźników na podstawie macierzy pomyłek Interpretowanie modeli za pomocą wskaźników Zaawansowane wskaźniki Informatywność i nacechowanie Wskaźnik F1 Współczynnik kappa Cohena Współczynnik korelacji Matthewsa Implementacja zaawansowanych wskaźników Krzywa charakterystyki operacyjnej odbiornika Dobór modeli Rysowanie wykresu wskaźników Analiza krzywej ROC Porównywanie modeli za pomocą analizy ROC Generowanie krzywej ROC Krzywa precyzji-czułości Przypadki wieloklasowe Rozszerzanie macierzy pomyłek Obliczanie dokładności ważonej Wieloklasowy współczynnik korelacji Matthewsa Wprowadzenie do splotowych sieci neuronowych Dlaczego splotowe sieci neuronowe? Splot Skanowanie za pomocą jądra Splot w przetwarzaniu obrazów Anatomia splotowej sieci neuronowej Różne typy warstw Przepuszczanie danych przez sieć splotową Warstwy splotowe Mechanizm działania warstwy splotowej Korzystanie z warstwy splotowej Wielokrotne warstwy splotowe Inicjalizacja warstwy splotowej Warstwy łączące Warstwy w pełni połączone Pełne warstwy splotowe Eksperymentowanie z biblioteką Keras i zestawem danych MNIST Budowanie sieci splotowych w bibliotece Keras Wczytywanie danych MNIST Budowanie modelu Uczenie i ocena modelu Tworzenie wykresu funkcji błędu Podstawowe eksperymenty Eksperymenty na architekturze Rozmiar zbioru uczącego, minigrup oraz liczba epok Optymalizatory Pełne sieci splotowe Budowa i trenowanie modelu Przygotowanie obrazów testowych Testowanie modelu Potasowane cyfry MNIST Eksperymentowanie z zestawem danych CIFAR-10 Zestaw CIFAR-10 - przypomnienie Praca na pełnym zestawie CIFAR-10 Budowanie modeli Analizowanie modeli Zwierzę czy pojazd? Model binarny czy wieloklasowy? Uczenie transferowe Strojenie modelu Przygotowanie zestawów danych Dostosowanie modelu do strojenia Testowanie modelu Studium przypadku: klasyfikowanie próbek dźwiękowych Budowanie zestawu danych Rozszerzanie zestawu danych Wstępne przetwarzanie danych Klasyfikowanie cech dźwiękowych Modele klasyczne Tradycyjna sieć neuronowa Splotowa sieć neuronowa Spektrogramy Klasyfikowanie spektrogramów Inicjalizacja, regularyzacja i normalizacja wsadowa Analiza macierzy pomyłek
Sygnatura czytelni BWEAiI: XII Ł 215
Media files:
Availability:
Biblioteka WEAiI
Copies are only available in the library: sygn. 153005 (1 egz.)
Notes:
Tytuł oryginału: Practical deep learning : a Python-based introduction, 2021
General note
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: No starch press.
Bibliography, etc. note
Indeks.
The item has been added to the basket. If you don't know what the basket is for, click here for details.
Do not show it again

Deklaracja dostępności