156772
Książka
W koszyku
Wprowadzenie do uczenia głębokiego z Keras Dlaczego Keras jest idealną biblioteką do uczenia głębokiego? Instalowanie biblioteki Keras i TensorFlow Sieci MLP, CNN i RNN Różnice między MLP, CNN i RNN Perceptron wielowarstwowy (MLP) Zbiór danych MNIST Model klasyfikatora cyfr MNIST Budowanie modelu przy użyciu MLP i Keras Regularyzacja Funkcja aktywacji i funkcja straty Optymalizacja Ocena wydajności Podsumowanie modelu MLP Splotowa (konwolucyjna) sieć neuronowa Splot Operacje łączenia Ocena wydajności i podsumowanie modelu Rekurencyjna sieć neuronowa Głębokie sieci neuronowe Funkcyjne API Keras Tworzenie modelu o dwóch wejściach i jednym wyjściu Głęboka sieć resztkowa (ResNet) ResNet v2 Gęsto połączona sieć splotowa (DenseNet) Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10 Sieci autokodujące Zasada działania sieci autokodującej Budowanie sieci autokodującej za pomocą Keras Autokodujące sieci odszumiające (DAE) Automatyczne kolorowanie z użyciem autokodera . Generujące sieci współzawodniczące GAN - informacje wprowadzające Podstawy GAN Implementacja DCGAN w Keras Warunkowe sieci GAN Ulepszone sieci GAN Sieć GAN Wassersteina Funkcje odległości Funkcja odległości w GAN Wykorzystanie funkcji straty Wassersteina Implementacja WGAN przy użyciu Keras GAN z metodą najmniejszych kwadratów (LSGAN) Pomocniczy klasyfikator GAN (ACGAN) Rozplątane reprezentacje w GAN Rozplątane reprezentacje Sieć InfoGAN Implementacja InfoGAN w Keras Ocena rezultatów działania generatora sieci InfoGAN Sieci StackedGAN Implementacja sieci StackedGAN w Keras Ocena rezultatów działania generatora StackedGAN Międzydomenowe GAN Podstawy sieci CycleGAN Model sieci CycleGAN Implementacja CycleGAN przy użyciu Keras Wyjścia generatora CycleGAN CycleGAN na zbiorach danych MNIST i SVHN . Wariacyjne sieci autokodujące (VAE) Podstawy sieci VAE Wnioskowanie wariacyjne Podstawowe równanie Optymalizacja Sztuczka z reparametryzacją Testowanie dekodera VAE w Keras Korzystanie z CNN w sieciach autokodujących Warunkowe VAE (CVAE) B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami Uczenie głębokie ze wzmocnieniem Podstawy uczenia ze wzmocnieniem (RL) Wartość Q Przykład Q-uczenia Q-uczenie w języku Python Otoczenie niedeterministyczne Uczenie z wykorzystaniem różnic czasowych Q-uczenie w Open AI Gym 9.6 Głęboka sieć Q (DQN) Implementacja DQN w Keras Q-uczenie podwójnej sieci DQN (DDQN) Strategie w metodach gradientowych Twierdzenie o gradiencie strategii Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE) Metoda WZMOCNIENIE z wartością bazową Metoda Aktor-Krytyk Metoda Aktor-Krytyk z przewagą (A2C) Metody strategii gradientowych przy użyciu Keras Ocena wydajności metod strategii gradientowej Wykrywanie obiektów Wykrywanie obiektów Pole zakotwiczenia Referencyjne pola zakotwiczenia Funkcje strat Architektura modelu SSD Architektura modelu SSD w Keras Obiekty SSD w Keras Model SSD w Keras Model generatora danych w Keras Przykładowy zbiór danych Szkolenie modelu SSD Algorytm niemaksymalnego tłumienia (NMS) Walidacja modelu SSD Segmentacja semantyczna Segmentacja Sieć do segmentacji semantycznej Sieć do segmentacji semantycznej w Keras Przykładowy zbiór danych Walidacja segmentacji semantycznej Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej Informacja wzajemna i entropia Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych Sieć koderów do grupowania nienadzorowanego Implementacja nienadzorowanego grupowania w Keras Walidacja na zbiorze cyfr MNIST Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
Sygnatura czytelni BWEAiI: XII Ą 151
Pliki multimedialne:
Status dostępności:
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153004 (1 egz.)
Strefa uwag:
Tytuł oryginału: Advanced deep learning with TensorFlow 2 and Keras : apply DL, GANs, VAEs, deep RL, unsupervised learning, object detection and segmentation, and more, 2020
Uwaga ogólna
Wydanie 2. odnosi się do oryginału.
Uwaga dotycząca bibliografii
Bibliografie, netografie przy większości rozdziałów.
Uwaga dotycząca przeznaczenia czytelniczego
Dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności