Deep learning
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(12)
Forma i typ
Książki
(12)
Publikacje fachowe
(8)
Publikacje dydaktyczne
(5)
Publikacje naukowe
(3)
Publikacje popularnonaukowe
(2)
Dostępność
tylko na miejscu
(9)
dostępne
(3)
wypożyczone
(1)
Placówka
Wypożyczalnia
(4)
Biblioteka WEAiI
(9)
Autor
Sawka Krzysztof
(2)
Atienza Rowel
(1)
Bassens Aglaé
(1)
Beyleveld Grant
(1)
Bosagh Zadeh Reza
(1)
Chollet François
(1)
Cypryański Piotr (tłumacz)
(1)
Janusz Jacek
(1)
Kneusel Ronald
(1)
Krohn Jon
(1)
Krzywicki Tomasz (informatyk)
(1)
Lapan Maxim
(1)
Matuk Konrad
(1)
Mirjalili Vahid
(1)
Osinga Douwe
(1)
Rajca Piotr (1970- )
(1)
Ramsundar Bharath (informatyka)
(1)
Raschka Sebastian
(1)
Sagalara Leszek
(1)
Sejnowski Terrence J
(1)
Spurek Przemysław (matematyk)
(1)
Struski Łukasz
(1)
Tabor Jacek (matematyk)
(1)
Tkacz Magdalena
(1)
Walczak Tomasz (tłumacz)
(1)
Watrak Andrzej
(1)
Weidman Seth
(1)
Wołczyk Maciej
(1)
Śmieja Marek
(1)
Rok wydania
2020 - 2024
(8)
2010 - 2019
(4)
Okres powstania dzieła
2001-
(12)
Kraj wydania
Polska
(12)
Język
polski
(12)
Odbiorca
Programiści
(6)
Szkoły wyższe
(2)
Temat
Budownictwo
(2411)
Zarządzanie
(2036)
Matematyka
(1929)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1791)
Deep learning
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1012)
Turystyka
(952)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(931)
Automatyka
(916)
Język angielski
(871)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(759)
Technika
(740)
Konstrukcje budowlane
(726)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Transport
(673)
Piłka nożna
(672)
Elektroenergetyka
(667)
Architektura
(637)
Marketing
(636)
Innowacje
(619)
Naprężenia i odkształcenia
(612)
OZE
(606)
Programowanie (informatyka)
(589)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(566)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Produkcja
(517)
Materiałoznawstwo
(516)
Symulacja
(515)
Inwestycje
(506)
Praca
(503)
Analiza matematyczna
(495)
Zarządzanie jakością
(495)
Zarządzanie zasobami ludzkimi (HRM)
(494)
Dzieci
(489)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(467)
Psychologia
(467)
Szkolnictwo wyższe
(466)
Przedsiębiorstwo
(465)
Internet
(464)
Modele matematyczne
(464)
Metale
(462)
Nauka
(455)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(428)
Mechanika budowli
(424)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(382)
Banki
(378)
BHP
(375)
Rachunkowość zarządcza
(374)
Gatunek
Podręcznik
(9)
Opracowanie
(3)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(12)
Matematyka
(1)
12 wyników Filtruj
Książka
W koszyku
Wydanie 2. odnosi się do oryginału.
Bibliografie, netografie przy większości rozdziałów.
Dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie.
Wprowadzenie do uczenia głębokiego z Keras Dlaczego Keras jest idealną biblioteką do uczenia głębokiego? Instalowanie biblioteki Keras i TensorFlow Sieci MLP, CNN i RNN Różnice między MLP, CNN i RNN Perceptron wielowarstwowy (MLP) Zbiór danych MNIST Model klasyfikatora cyfr MNIST Budowanie modelu przy użyciu MLP i Keras Regularyzacja Funkcja aktywacji i funkcja straty Optymalizacja Ocena wydajności Podsumowanie modelu MLP Splotowa (konwolucyjna) sieć neuronowa Splot Operacje łączenia Ocena wydajności i podsumowanie modelu Rekurencyjna sieć neuronowa Głębokie sieci neuronowe Funkcyjne API Keras Tworzenie modelu o dwóch wejściach i jednym wyjściu Głęboka sieć resztkowa (ResNet) ResNet v2 Gęsto połączona sieć splotowa (DenseNet) Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10 Sieci autokodujące Zasada działania sieci autokodującej Budowanie sieci autokodującej za pomocą Keras Autokodujące sieci odszumiające (DAE) Automatyczne kolorowanie z użyciem autokodera . Generujące sieci współzawodniczące GAN - informacje wprowadzające Podstawy GAN Implementacja DCGAN w Keras Warunkowe sieci GAN Ulepszone sieci GAN Sieć GAN Wassersteina Funkcje odległości Funkcja odległości w GAN Wykorzystanie funkcji straty Wassersteina Implementacja WGAN przy użyciu Keras GAN z metodą najmniejszych kwadratów (LSGAN) Pomocniczy klasyfikator GAN (ACGAN) Rozplątane reprezentacje w GAN Rozplątane reprezentacje Sieć InfoGAN Implementacja InfoGAN w Keras Ocena rezultatów działania generatora sieci InfoGAN Sieci StackedGAN Implementacja sieci StackedGAN w Keras Ocena rezultatów działania generatora StackedGAN Międzydomenowe GAN Podstawy sieci CycleGAN Model sieci CycleGAN Implementacja CycleGAN przy użyciu Keras Wyjścia generatora CycleGAN CycleGAN na zbiorach danych MNIST i SVHN . Wariacyjne sieci autokodujące (VAE) Podstawy sieci VAE Wnioskowanie wariacyjne Podstawowe równanie Optymalizacja Sztuczka z reparametryzacją Testowanie dekodera VAE w Keras Korzystanie z CNN w sieciach autokodujących Warunkowe VAE (CVAE) B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami Uczenie głębokie ze wzmocnieniem Podstawy uczenia ze wzmocnieniem (RL) Wartość Q Przykład Q-uczenia Q-uczenie w języku Python Otoczenie niedeterministyczne Uczenie z wykorzystaniem różnic czasowych Q-uczenie w Open AI Gym 9.6 Głęboka sieć Q (DQN) Implementacja DQN w Keras Q-uczenie podwójnej sieci DQN (DDQN) Strategie w metodach gradientowych Twierdzenie o gradiencie strategii Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE) Metoda WZMOCNIENIE z wartością bazową Metoda Aktor-Krytyk Metoda Aktor-Krytyk z przewagą (A2C) Metody strategii gradientowych przy użyciu Keras Ocena wydajności metod strategii gradientowej Wykrywanie obiektów Wykrywanie obiektów Pole zakotwiczenia Referencyjne pola zakotwiczenia Funkcje strat Architektura modelu SSD Architektura modelu SSD w Keras Obiekty SSD w Keras Model SSD w Keras Model generatora danych w Keras Przykładowy zbiór danych Szkolenie modelu SSD Algorytm niemaksymalnego tłumienia (NMS) Walidacja modelu SSD Segmentacja semantyczna Segmentacja Sieć do segmentacji semantycznej Sieć do segmentacji semantycznej w Keras Przykładowy zbiór danych Walidacja segmentacji semantycznej Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej Informacja wzajemna i entropia Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych Sieć koderów do grupowania nienadzorowanego Implementacja nienadzorowanego grupowania w Keras Walidacja na zbiorze cyfr MNIST Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
Sygnatura czytelni BWEAiI: XII Ą 151
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153004 (1 egz.)
Książka
W koszyku
Tytuł oryginału: Deep learning with Python.
Indeks.
Dla zainteresowanych nauką zagadnień związanych z uczeniem głębokim od podstaw, a także dla wszystkich chcących poszerzyć swoją wiedzę na temat uczenia głębokiego - analityków, programistów, studentów.
CZĘŚĆ I. PODSTAWY UCZENIA GŁĘBOKIEGO 19 Rozdział 1. Czym jest uczenie głębokie? 21 1.1. Sztuczna inteligencja, uczenie maszynowe i uczenie głębokie 22 1.1.1. Sztuczna inteligencja 22 1.1.2. Uczenie maszynowe 22 1.1.3. Formy danych umożliwiające uczenie 24 1.1.4. "Głębia" uczenia głębokiego 26 1.1.5. Działanie uczenia głębokiego przedstawione na trzech rysunkach 27 1.1.6. Co dotychczas osiągnięto za pomocą uczenia głębokiego? 29 1.1.7. Nie wierz w tymczasową popularność 30 1.1.8. Nadzieje na powstanie sztucznej inteligencji 31 1.2. Zanim pojawiło się uczenie głębokie: krótka historia uczenia maszynowego 32 1.2.1. Modelowanie probabilistyczne 32 1.2.2. Wczesne sieci neuronowe 33 1.2.3. Metody jądrowe 33 1.2.4. Drzewa decyzyjne, lasy losowe i gradientowe wzmacnianie maszyn 35 1.2.5. Powrót do sieci neuronowych 35 1.2.6. Co wyróżnia uczenie głębokie? 36 1.2.7. Współczesne uczenie maszynowe 37 1.3. Dlaczego uczenie głębokie? Dlaczego teraz? 38 1.3.1. Sprzęt 38 1.3.2. Dane 39 1.3.3. Algorytmy 40 1.3.4. Nowa fala inwestycji 40 1.3.5. Demokratyzacja uczenia głębokiego 41 Rozdział 2. Matematyczne podstawy sieci neuronowych 43 2.1. Pierwszy przykład sieci neuronowej 44 2.2. Reprezentacja danych sieci neuronowych 47 2.2.1. Skalary (tensory zerowymiarowe) 48 2.2.2. Wektory (tensory jednowymiarowe) 48 2.2.3. Macierze (tensory dwuwymiarowe) 48 2.2.4. Trójwymiarowe tensory i tensory o większej liczbie wymiarów 49 2.2.5. Główne atrybuty 49 2.2.6. Obsługa tensorów R 50 2.2.7. Wsad danych 50 2.2.8. Prawdziwe przykłady tensorów danych 51 2.2.9. Dane wektorowe 51 2.2.10. Dane szeregu czasowego i dane sekwencyjne 52 2.2.11. Dane w postaci obrazów 52 2.2.12. Materiały wideo 53 2.3. Koła zębate sieci neuronowych: operacje na tensorach 53 2.3.1. Operacje wykonywane element po elemencie 54 2.3.2. Operacje na tensorach o różnych wymiarach 55 2.3.3. Iloczyn tensorowy 55 2.3.4. Zmiana kształtu tensora 57 2.3.5. Geometryczna interpretacja operacji tensorowych 58 2.3.6. Interpretacja geometryczna uczenia głębokiego 59 2.4. Silnik sieci neuronowych: optymalizacja gradientowa 60 2.4.1. Czym jest pochodna? 61 2.4.2. Pochodna operacji tensorowej: gradient 62 2.4.3. Stochastyczny spadek wzdłuż gradientu 63 2.4.4. Łączenie pochodnych: algorytm propagacji wstecznej 66 2.5. Ponowna analiza pierwszego przykładu 67 Rozdział 3. Rozpoczynamy korzystanie z sieci neuronowych 71 3.1. Anatomia sieci neuronowej 72 3.1.1. Warstwy: podstawowe bloki konstrukcyjne uczenia głębokiego 72 3.1.2. Modele: sieci warstw 73 3.1.3. Funkcja straty i optymalizatory: najważniejsze elementy konfiguracji procesu uczenia 74 3.2. Wprowadzenie do pakietu Keras 75 3.2.1. Keras, TensorFlow, Theano i CNTK 76 3.2.2. Instalowanie pakietu Keras 77 3.2.3. Praca z pakietem Keras: krótkie wprowadzenie 77 3.3. Przygotowanie stacji roboczej do uczenia głębokiego 79 3.3.1. Dwie opcje uruchamiania pakietu Keras 79 3.3.2. Wady i zalety uruchamiania uczenia głębokiego w chmurze 80 3.3.3. Jaki procesor graficzny najlepiej nadaje się do uczenia głębokiego? 80 3.4. Przykład klasyfikacji binarnej: klasyfikacja recenzji filmów 81 3.4.1. Zbiór danych IMDB 81 3.4.2. Przygotowywanie danych 82 3.4.3. Budowa sieci neuronowej 83 3.4.4. Walidacja modelu 87 3.4.5. Używanie wytrenowanej sieci do generowania przewidywań dotyczących nowych danych 90 3.4.6. Dalsze eksperymenty 90 3.4.7. Wnioski 91 3.5. Przykład klasyfikacji wieloklasowej: klasyfikacja krótkich artykułów prasowych 91 3.5.1. Zbiór danych Agencji Reutera 91 3.5.2. Przygotowywanie danych 93 3.5.3. Budowanie sieci 93 3.5.4. Walidacja modelu 94 3.5.5. Generowanie przewidywań dotyczących nowych danych 96 3.5.6. Inne sposoby obsługi etykiet i funkcji straty 97 3.5.7. Dlaczego warto tworzyć odpowiednio duże warstwy pośrednie? 97 3.5.8. Dalsze eksperymenty 98 3.5.9. Wnioski 98 3.6. Przykład regresji: przewidywanie cen mieszkań 99 3.6.1. Zbiór cen mieszkań w Bostonie 99 3.6.2. Przygotowywanie danych 100 3.6.3. Budowanie sieci 100 3.6.4. K-składowa walidacja krzyżowa 101 3.6.5. Wnioski 105 Rozdział 4. Podstawy uczenia maszynowego 107 4.1. Cztery rodzaje uczenia maszynowego 108 4.1.1. Uczenie nadzorowane 108 4.1.2. Uczenie nienadzorowane 108 4.1.3. Uczenie częściowo nadzorowane 109 4.1.4. Uczenie przez wzmacnianie 109 4.2. Ocena modeli uczenia maszynowego 109 4.2.1. Zbiory treningowe, walidacyjne i testowe 111 4.2.2. Rzeczy, o których warto pamiętać 114 4.3. Wstępna obróbka danych, przetwarzanie cech i uczenie cech 114 4.3.1. Przygotowywanie danych do przetwarzania przez sieci neuronowe 115 4.3.2. Przetwarzanie cech 116 4.4. Nadmierne dopasowanie i zbyt słabe dopasowanie 118 4.4.1. Redukcja rozmiaru sieci 119 4.4.2. Dodawanie regularyzacji wag 121 4.4.3. Porzucanie - technika dropout 123 4.5. Uniwersalny przepływ roboczy uczenia maszynowego 125 4.5.1. Definiowanie problemu i przygotowywanie zbioru danych 125 4.5.2. Wybór miary sukcesu 126 4.5.3. Określanie techniki oceny wydajności modelu 127 4.5.4. Przygotowywanie danych 127 4.5.5. Tworzenie modeli lepszych od linii bazowej 128 4.5.6. Skalowanie w górę: tworzenie modelu, który ulega nadmiernemu dopasowaniu 129 4.5.7. Regularyzacja modelu i dostrajanie jego hiperparametrów 129 CZĘŚĆ II. UCZENIE GŁĘBOKIE W PRAKTYCE 131 Rozdział 5. Uczenie głębokie i przetwarzanie obrazu 133 5.1. Wprowadzenie do konwolucyjnych sieci neuronowych 134 5.1.1. Działanie sieci konwolucyjnej 136 5.1.2. Operacja max-pooling 141 5.2. Trenowanie konwolucyjnej sieci neuronowej na małym zbiorze danych 143 5.2.1. Stosowanie uczenia głębokiego w problemach małych zbiorów danych 144 5.2.2. Pobieranie danych 144 5.2.3. Budowa sieci neuronowej 147 5.2.4. Wstępna obróbka danych 148 5.2.5. Stosowanie techniki augmentacji danych 151 5.3. Korzystanie z wcześniej wytrenowanej konwolucyjnej sieci neuronowej 155 5.3.1. Ekstrakcja cech 155 5.3.2. Dostrajanie 163 5.4. Wizualizacja efektów uczenia konwolucyjnych sieci neuronowych 168 5.4.1. Wizualizacja pośrednich aktywacji 169 5.4.2. Wizualizacja filtrów konwolucyjnych sieci neuronowych 175 5.4.3. Wizualizacja map ciepła aktywacji klas 181 Rozdział 6. Uczenie głębokie w przetwarzaniu tekstu i sekwencji 187 6.1. Praca z danymi tekstowymi 188 6.1.1. Kodowanie słów i znaków metodą gorącej jedynki 189 6.1.2. Osadzanie słów 192 6.1.3. Łączenie wszystkich technik: od surowego tekstu do osadzenia słów 197 6.1.4. Wnioski 203 6.2. Rekurencyjne sieci neuronowe 203 6.2.1. Warstwa rekurencyjna w pakiecie Keras 206 6.2.2. Warstwy LSTM i GRU 209 6.2.3. Przykład warstwy LSTM zaimplementowanej w pakiecie Keras 212 6.3. Zaawansowane zastosowania rekurencyjnych sieci neuronowych 214 6.3.1. Problem prognozowania temperatury 214 6.3.2. Przygotowywanie danych 217 6.3.3. Punkt odniesienia w postaci zdrowego rozsądku 220 6.3.4. Podstawowe rozwiązanie problemu przy użyciu techniki uczenia maszynowego 221 6.3.5. Punkt odniesienia w postaci pierwszego modelu rekurencyjnego 223 6.3.6. Stosowanie rekurencyjnego porzucania w celu zmniejszenia nadmiernego dopasowania 225 6.3.7. Tworzenie stosów warstw rekurencyjnych 226 6.3.8. Korzystanie z dwukierunkowych rekurencyjnych sieci neuronowych 228 6.3.9. Kolejne rozwiązania 232 6.4. Konwolucyjne sieci neuronowe i przetwarzanie sekwencji 234 6.4.1. Przetwarzanie sekwencji za pomocą jednowymiarowej sieci konwolucyjnej 234 6.4.2. Jednowymiarowe łączenie danych sekwencyjnych 235 6.4.3. Implementacja jednowymiarowej sieci konwolucyjnej 235 6.4.4. Łączenie sieci konwolucyjnych i rekurencyjnych w celu przetworzenia długich sekwencji 237 Rozdział 7. Najlepsze zaawansowane praktyki uczenia głębokiego 245 7.1. Funkcjonalny interfejs programistyczny pakietu Keras: wykraczanie poza model sekwencyjny 246 7.1.1. Wprowadzenie do funkcjonalnego interfejsu API 247 7.1.2. Modele z wieloma wejściami 249 7.1.3. Modele z wieloma wyjściami 251 7.1.4. Skierowane acykliczne grafy warstw 254 7.1.5. Udostępnianie wag warstwy 258 7.1.6. Modele pełniące funkcję warstw 259 7.2. Monitorowanie modeli uczenia głębokiego przy użyciu wywołań zwrotnych pakietu Keras i narzędzia TensorBoard 260 7.2.1. Używanie wywołań zwrotnych w celu sterowania procesem trenowania modelu 260 7.2.2. Wprowadzenie do TensorBoard - platformy wizualizacji danych pakietu TensorFlow 264 7.3. Korzystanie z pełni możliwości modeli 268 7.3.1. Konstrukcja zaawansowanych architektur 269 7.3.2. Optymalizacja hiperparametru 272 7.3.3. Składanie modeli 274 Rozdział 8. Stosowanie uczenia głębokiego w celu generowania danych 279 8.1. Generowanie tekstu za pomocą sieci LSTM 281 8.1.1. Krótka historia generatywnych sieci rekurencyjnych 281 8.1.2. Generowanie danych sekwencyjnych 282 8.1.3. Dlaczego strategia próbkowania jest ważna? 282 8.1.4. Implementacja algorytmu LSTM generującego tekst na poziomie liter 285 8.2. DeepDream 290 8.2.1. Implementacja algorytmu DeepDream w pakiecie Keras 291 8.2.2. Wnioski 296 8.3. Neuronowy transfer stylu 297 8.3.1. Strata treści 298 8.3.2. Strata stylu 298 8.3.3. Implementacja neuronowego transferu stylu przy użyciu pakietu Keras 299 8.4. Generowanie obrazów przy użyciu wariacyjnych autoenkoderów 306 8.4.1. Próbkowanie z niejawnej przestrzeni obrazów 306 8.4.2. Wektory koncepcyjne używane podczas edycji obrazu 307 8.4.3. Wariacyjne autoenkodery 308 8.5. Wprowadzenie do generatywnych sieci z przeciwnikiem 315 8.5.1. Schematyczna implementacja sieci GAN 316 8.5.2. Zbiór przydatnych rozwiązań 317 8.5.3. Generator 318 8.5.4. Dyskryminator 319 8.5.5. Sieć z przeciwnikiem 320 8.5.6. Trenowanie sieci DCGAN 320 Rozdział 9. Wnioski 325 9.1. Przypomnienie najważniejszych koncepcji 326 9.1.1. Sztuczna inteligencja 326 9.1.2. Co sprawia, że uczenie głębokie to wyjątkowa dziedzina uczenia maszynowego? 326 9.1.3. Jak należy traktować uczenie głębokie? 327 9.1.4. Najważniejsze technologie 328 9.1.5. Uniwersalny przepływ roboczy uczenia maszynowego 329 9.1.6. Najważniejsze architektury sieci 330 9.1.7. Przestrzeń możliwości 334 9.2. Ograniczenia uczenia głębokiego 336 9.2.1. Ryzyko antropomorfizacji modeli uczenia maszynowego 337 9.2.2. Lokalne uogólnianie a ekstremalne uogólnianie 339 9.3. Przyszłość uczenia głębokiego 341 9.3.1. Modele jako programy 342 9.3.2. Wykraczanie poza algorytm propagacji wstecznej i warstwy różniczkowalne 343 9.3.3. Zautomatyzowane uczenie maszynowe 344 9.3.4. Nieustanne uczenie się i wielokrotne używanie modułowych procedur składowych 345 9.3.5. Przewidywania dotyczące dalekiej przyszłości 346 9.4. Bycie na bieżąco z nowościami związanymi z szybko rozwijającą się dziedziną 348 9.4.1. Zdobywaj wiedzę praktyczną, pracując z prawdziwymi problemami przedstawianymi w serwisie Kaggle 348 9.4.2. Czytaj o nowych rozwiązaniach w serwisie arXiv 348 9.4.3. Eksploruj ekosystem związany z pakietem Keras 349 9.5. Ostatnie słowa 349 Dodatek A. Instalowanie pakietu Keras i innych bibliotek niezbędnych do jego działania w systemie Ubuntu 353 Dodatek B. Uruchamianie kodu w środowisku RStudio Server przy użyciu zdalnej instancji procesora graficznego EC2 359
Sygnatura czytelni BWEAiI: XII Ł 130
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 147414 N (1 egz.)
Książka
W koszyku
Deep learning : praktyczne wprowadzenie z zastosowaniem środowiska Pythona / Ron Kneusel ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 472 strony : fotografie, ilustracje, wykresy ; 23 cm.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: No starch press.
Indeks.
Środowisko operacyjne NumPy scikit-learn Keras i TensorFlow Instalacja narzędzi Podstawy algebry liniowej Wektory Macierze Mnożenie wektorów i macierzy Statystyka i prawdopodobieństwo Statystyka opisowa Rozkłady prawdopodobieństwa Testy statystyczne Procesory graficzne (GPU) 2. Korzystanie z Pythona Interpreter Pythona Instrukcje i białe znaki Zmienne i podstawowe struktury danych Przedstawianie liczb Zmienne Łańcuchy znaków Listy Słowniki Struktury sterowania Instrukcje if-elif-else Pętle for Pętle while Instrukcje break i continue Instrukcja with Obsługa błędów za pomocą bloków try-except Funkcje Moduły 3. Biblioteka NumPy Dlaczego NumPy? Tablice a listy Testowanie szybkości tablic i list Definiowanie tablicy za pomocą funkcji, np. array Definiowanie tablic wypełnionych zerami i jedynkami Dostęp do elementów tablicy Indeksowanie tablicowe Uzyskiwanie wycinków tablicy Wielokropek Operatory i rozgłaszanie Dane wejściowe i wyjściowe tablic Liczby losowe Biblioteka NumPy i obrazy 4. Praca z danymi Klasy i etykiety Cechy i wektory cech Dobór cech i klątwa wymiarowości Własności dobrego zestawu danych Interpolacja i ekstrapolacja Główny rozkład prawdopodobieństwa Rozkład a priori Przykłady mylące Rozmiar zestawu danych Przygotowanie danych Skalowanie cech Brakujące cechy Dane uczące, walidacyjne i testowe Trzy podzbiory Dzielenie zestawu danych k-krotny sprawdzian krzyżowy Analiza danych Wyszukiwanie problemów z danymi 5. Budowanie zestawów danych Kosaćce (zestaw danych Iris) Nowotwory piersi (zestaw danych Breast Cancer) Cyfry zapisane pismem odręcznym (zestaw danych MNIST) Różne obrazy (zestaw danych CIFAR-10) Rozszerzanie danych Dlaczego należy rozszerzać dane uczące? Sposoby rozszerzania danych Rozszerzanie zestawu danych Iris Rozszerzanie zestawu danych CIFAR-10 6. Klasyczne uczenie maszynowe Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne i lasy losowe Rekurencja Budowanie drzew decyzyjnych Lasy losowe Maszyny wektorów nośnych Marginesy Wektory nośne Optymalizacja Jądra 7. Eksperymentowanie z klasycznymi modelami Eksperymenty z użyciem zestawu danych Iris Testowanie klasycznych modeli Implementacja klasyfikatora najbliższego centroidu Eksperymenty z użyciem zestawu danych Breast Cancer Dwa pierwsze przebiegi testowe Skutek losowych podziałów Dodawanie k-krotnego sprawdzianu krzyżowego Poszukiwanie hiperparametrów Eksperymenty z użyciem zestawu danych MNIST Testowanie klasycznych modeli Analiza czasu działania Eksperymenty z głównymi składowymi analizy PCA Tasowanie zestawu danych Podsumowanie klasycznych modeli Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Lasy losowe Maszyny wektorów nośnych Kiedy używać klasycznych modeli? Korzystanie z małych zestawów danych Ograniczone zasoby obliczeniowe Dostęp do wyjaśnialnych modeli Praca z danymi wektorowymi 8. Wprowadzenie do sieci neuronowych Anatomia sieci neuronowej Neuron Funkcje aktywacji Architektura sieci Warstwy wyjściowe Wagi i obciążenia Implementacja prostej sieci neuronowej Przygotowanie zestawu danych Implementacja sieci neuronowej Uczenie i testowanie sieci neuronowej 9. Uczenie sieci neuronowej Algorytm gradientu prostego Wyszukiwanie minimów Aktualizowanie wag Stochastyczny spadek wzdłuż gradientu Grupy i minigrupy Funkcje wypukłe i niewypukłe Kończenie uczenia Aktualizowanie współczynnika uczenia Momentum Propagacja wsteczna Propagacja wsteczna - ujęcie pierwsze Propagacja wsteczna - ujęcie drugie Funkcje straty Błąd bezwzględny i błąd średniokwadratowy Entropia krzyżowa Inicjalizowanie wag Przetrenowanie i regularyzacja Przetrenowanie Regularyzacja Regularyzacja L2 Porzucanie 10. Eksperymentowanie z sieciami neuronowymi Nasz zestaw danych Klasa MLPClassifier Struktura sieci i funkcje aktywacji Kod Rozmiar grupy Podstawowy współczynnik uczenia Rozmiar zbioru uczącego Regularyzacja L2 Momentum Inicjalizacja wag Kolejność cech Ocenianie modeli Dlaczego dokładność jest niewystarczająca? Macierz pomyłek 2×2 Wskaźniki wyprowadzane z macierzy pomyłek Wyprowadzanie wskaźników na podstawie macierzy pomyłek Interpretowanie modeli za pomocą wskaźników Zaawansowane wskaźniki Informatywność i nacechowanie Wskaźnik F1 Współczynnik kappa Cohena Współczynnik korelacji Matthewsa Implementacja zaawansowanych wskaźników Krzywa charakterystyki operacyjnej odbiornika Dobór modeli Rysowanie wykresu wskaźników Analiza krzywej ROC Porównywanie modeli za pomocą analizy ROC Generowanie krzywej ROC Krzywa precyzji-czułości Przypadki wieloklasowe Rozszerzanie macierzy pomyłek Obliczanie dokładności ważonej Wieloklasowy współczynnik korelacji Matthewsa Wprowadzenie do splotowych sieci neuronowych Dlaczego splotowe sieci neuronowe? Splot Skanowanie za pomocą jądra Splot w przetwarzaniu obrazów Anatomia splotowej sieci neuronowej Różne typy warstw Przepuszczanie danych przez sieć splotową Warstwy splotowe Mechanizm działania warstwy splotowej Korzystanie z warstwy splotowej Wielokrotne warstwy splotowe Inicjalizacja warstwy splotowej Warstwy łączące Warstwy w pełni połączone Pełne warstwy splotowe Eksperymentowanie z biblioteką Keras i zestawem danych MNIST Budowanie sieci splotowych w bibliotece Keras Wczytywanie danych MNIST Budowanie modelu Uczenie i ocena modelu Tworzenie wykresu funkcji błędu Podstawowe eksperymenty Eksperymenty na architekturze Rozmiar zbioru uczącego, minigrup oraz liczba epok Optymalizatory Pełne sieci splotowe Budowa i trenowanie modelu Przygotowanie obrazów testowych Testowanie modelu Potasowane cyfry MNIST Eksperymentowanie z zestawem danych CIFAR-10 Zestaw CIFAR-10 - przypomnienie Praca na pełnym zestawie CIFAR-10 Budowanie modeli Analizowanie modeli Zwierzę czy pojazd? Model binarny czy wieloklasowy? Uczenie transferowe Strojenie modelu Przygotowanie zestawów danych Dostosowanie modelu do strojenia Testowanie modelu Studium przypadku: klasyfikowanie próbek dźwiękowych Budowanie zestawu danych Rozszerzanie zestawu danych Wstępne przetwarzanie danych Klasyfikowanie cech dźwiękowych Modele klasyczne Tradycyjna sieć neuronowa Splotowa sieć neuronowa Spektrogramy Klasyfikowanie spektrogramów Inicjalizacja, regularyzacja i normalizacja wsadowa Analiza macierzy pomyłek
Sygnatura czytelni BWEAiI: XII Ł 215
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153005 (1 egz.)
Książka
W koszyku
Nazwa pierwszego autora wyróżniona typograficznie. Na stronie redakcyjnej rok wydania: 2022, data wpływu egzemplarza obowiązkowego: 2021.
I. WPROWADZENIE DO GŁĘBOKIEGO UCZENIA (1) 1. Widzenie biologiczne i maszynowe (3) Widzenie biologiczne (3) Widzenie maszynowe (8) Neocognitron (8) LeNet-5 (9) Tradycyjne podejście w uczeniu maszynowym (12) Sieć ImageNet i konkurs ILSVRC (13) AlexNet (14) Plac zabaw TensorFlow (17) Quick, Draw! (19) 2. Języki ludzki i maszynowy (21) Przetwarzanie języka naturalnego przy użyciu głębokiego uczenia (21) Sieci głębokiego uczenia automatycznie uczą się reprezentacji danych (22) Przetwarzanie języka naturalnego (23) Krótka historia wykorzystania głębokiego uczenia w przetwarzaniu języka naturalnego (24) Matematyczne reprezentacje języka (25) Kodowanie słów 1 z n (26) Wektory słów (27) Działania na wektorach słów (29) word2viz (30) Reprezentacje lokalne i rozproszone (32) Elementy naturalnego języka ludzi (33) Google Duplex (35) 3. Sztuka maszynowa (39) Zakrapiana impreza (39) Arytmetyka nieprawdziwych twarzy (41) Transfer stylu: konwersja zdjęcia na obraz Moneta (i odwrotnie) (44) Tworzenie własnych, fotograficznie realistycznych rysunków (45) Tworzenie realistycznych obrazów na podstawie tekstu (45) Przetwarzanie obrazów przy użyciu głębokiego uczenia (46) 4. Maszyny i gry (49) Głębokie uczenie, sztuczna inteligencja i inne bestie (49) Sztuczna inteligencja (49) Uczenie maszynowe (50) Uczenie się reprezentacji (51) Sztuczne sieci neuronowe (51) Głębokie uczenie (51) Widzenie maszynowe (52) Przetwarzanie języka naturalnego (53) Trzy kategorie problemów uczenia maszynowego (53) Uczenie nadzorowane (53) Uczenie nienadzorowane (54) Uczenie przez wzmacnianie (54) Głębokie uczenie przez wzmacnianie (56) Gry wideo (57) Gry planszowe (60) AlphaGo (60) AlphaGo Zero (62) AlphaZero (64) Manipulowanie obiektami (66) Popularne środowiska dla głębokiego uczenia przez wzmacnianie (68) OpenAI Gym (68) DeepMind Lab (68) Unity ML-Agents (71) Trzy kategorie sztucznej inteligencji (71) Sztuczna wąska inteligencja (71) Sztuczna ogólna inteligencja (71) Sztuczna superinteligencja (72) II. PODSTAWY TEORETYCZNE W ILUSTRACJACH (73) 5. Wóz (kodu) przed koniem (teorii) (75) Wymagania (75) Instalacja (76) Prosta sieć i biblioteka Keras (76) Baza MNIST odręcznych cyfr (76) Schemat sieci (78) Załadowanie danych (79) Przeformatowanie danych (81) Zaprojektowanie architektury sieci neuronowej (82) Trenowanie modelu sieci neuronowej (83) 6. Sztuczny neuron wykrywający hot dogi (85) Biologiczna neuroanatomia (85) Perceptron (86) Wykrywacz: "hot dog" - "nie hot dog" (86) Najważniejsza formuła w tej książce (90) Współczesne neurony i funkcje aktywacji (91) Neuron sigmoidalny (92) Neuron tangensowy (94) Neuron ReLU (94) Wybór neuronu (96) Podsumowanie (96) Kluczowe pojęcia (97) 7. Sztuczne sieci neuronowe (99) Warstwa wejściowa (99) Warstwa zagęszczona (99) Zagęszczona sieć wykrywająca hot dogi (101) Propagacja w przód w pierwszej warstwie ukrytej (102) Propagacja w przód w kolejnych warstwach (103) Warstwa softmax w sieci wykrywającej hot dogi (105) Nowe spojrzenie na naszą płytką sieć (107) 8. Trenowanie głębokich sieci (111) Funkcja kosztu (111) Kwadratowa funkcja straty (112) Wysycenie neuronu (112) Entropia skrośna (113) Optymalizacja - uczenie się minimalizowania kosztu (115) Gradient prosty (115) Szybkość uczenia się (117) Wielkość paczki i stochastyczny gradient prosty (119) Ucieczka z lokalnego minimum (121) Propagacja wstecz (123) Dobór liczby warstw ukrytych i liczby neuronów (124) Średniogłęboka sieć w Keras (126) 9. Usprawnianie głębokich sieci (131) Inicjalizacja wag (131) Rozkłady Xaviera Glorota (134) Niestabilne gradienty (137) Zanikające gradienty (137) Eksplodujące gradienty (137) Normalizacja paczki (138) Uogólnianie modelu (zapobieganie nadmiernemu dopasowaniu) (139) Regularyzacja L1 i L2 (141) Dropout (141) Powiększenie danych (144) Pomysłowe optymalizatory (144) Impet (144) Impet Nesterowa (145) AdaGrad (145) AdaDelta i RMSprop (146) Adam (146) Głęboka sieć neuronowa w Keras (147) Regresja (148) TensorBoard (151) III. INTERAKTYWNE ZASTOSOWANIA GŁĘBOKIEGO UCZENIA (155) 10. Widzenie maszynowe (157) Konwolucyjne sieci neuronowe (157) Dwuwymiarowa struktura obrazów (157) Złożoność obliczeniowa (158) Warstwy konwolucyjne (158) Wielokrotne filtry (160) Konwolucyjny przykład (161) Hiperparametry filtru konwolucyjnego (165) Warstwy redukujące (166) Sieć LeNet-5 w Keras (168) Sieci AlexNet i VGGNet w Keras (173) Sieci rezydualne (176) Zanikający gradient - zmora głębokiej sieci konwolucyjnej (176) Połączenia rezydualne (177) Sieć ResNet (178) Zastosowania widzenia maszynowego (180) Wykrywanie obiektów (180) Segmentacja obrazów (183) Uczenie transferowe (185) Sieci kapsułowe (189) 11. Przetwarzanie języka naturalnego (193) Wstępne przetwarzanie danych języka naturalnego (193) Tokenizacja (196) Zamiana wszystkich znaków na małe litery (198) Usunięcie stop-słów i interpunkcji (198) Stemming (199) Przetwarzanie n-gramów (200) Wstępne przetworzenie całego korpusu (202) Osadzanie słów przy użyciu techniki word2vec (205) Teoretyczne podstawy techniki word2vec (206) Ocenianie wektorów słów (208) Stosowanie techniki word2vec (208) Tworzenie wykresów wektorów słów (212) Pole pod krzywą ROC (215) Macierz pomyłek (217) Wyliczanie pola pod krzywą ROC (218) Klasyfikowanie języka naturalnego za pomocą znanych sieci (220) Załadowanie recenzji filmów z bazy IMDb (221) Badanie bazy IMDb (224) Ujednolicenie długości recenzji (227) Sieć zagęszczona (227) Sieci konwolucyjne (234) Sieci przystosowane do danych sekwencyjnych (238) Rekurencyjne sieci neuronowe (238) Jednostka LSTM (242) Dwukierunkowa jednostka LSTM (245) Spiętrzone modele rekurencyjne (246) Techniki sekwencja-sekwencja i atencja (248) Uczenie transferowe w przetwarzaniu języka naturalnego (249) Modele niesekwencyjne: funkcyjny interfejs API biblioteki Keras (249) 12. Sieci GAN (257) Teoretyczne podstawy sieci GAN (257) Zbiór rysunków Quick, Draw! (260) Sieć dyskryminatora (263) Sieć generatora (266) Sieć antagonistyczna (269) Trening sieci GAN (271) 13. Głębokie uczenie przez wzmacnianie (281) Podstawy teoretyczne uczenia przez wzmacnianie (281) Gra Cart-Pole (282) Proces decyzyjny Markowa (284) Optymalna polityka (286) Podstawy teoretyczne sieci głębokiego Q-uczenia (287) Funkcja wartości (288) Funkcja Q-wartości (288) Szacowanie optymalnej Q-wartości (289) Definiowanie agenta sieci DQN (290) Parametry inicjalizacyjne (293) Tworzenie sieci neuronowej agenta (294) Rejestrowanie przebiegu gry (295) Trening poprzez odtwarzanie zapisanych informacji (295) Wybór czynności do wykonania (297) Zapisywanie i ładowanie parametrów modelu (297) Interakcja ze środowiskiem OpenAI Gym (297) Optymalizacja hiperparametrów za pomocą narzędzia SLM Lab (301) Agenci nie tylko DQN (303) Algorytmy gradientu polityki i REINFORCE (304) Algorytm aktor-krytyk (304) IV TY I SZTUCZNA INTELIGENCJA (307) 14. Rozwijanie własnych projektów głębokiego uczenia (309) Pomysły na projekty głębokiego uczenia (309) Widzenie maszynowe i sieci GAN (309) Przetwarzanie języka naturalnego (311) Głębokie uczenie przez wzmacnianie (312) Przekształcanie istniejących projektów uczenia maszynowego (312) Materiały do kolejnych projektów (313) Projekty pożytku publicznego (314) Proces modelowania i strojenie hiperparametrów (314) Automatyzacja strojenia hiperparametrów (316) Biblioteki głębokiego uczenia (317) Keras i TensorFlow (317) PyTorch (319) MXNet, CNTK, Caffe i inne biblioteki (320) Software 2.0 (320) Nadejście ogólnej sztucznej inteligencji (322)
Sygnatura czytelni BWEAiI: XII Ą 24
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Wszystkie egzemplarze są obecnie wypożyczone: sygn. 151514, 151513 (2 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 151512 N (1 egz.)
Brak okładki
Książka
W koszyku
Bibliografie, netografie przy rozdziałach.
1. Wprowadzenie do systemów uczących się 1.1. Uczenie maszynowe 1.2. Uczenie maszynowe a sztuczna inteligencja 1.3. Problemy, które rozwiązuje uczenie maszynowe 1.4. System informacyjny w sensie Pawlaka 1.5. System decyzyjny w sensie Pawlaka 1.6. Idea uczenia maszynowego 1.6.1. Problem uczenia maszynowego 1.6.2. Uczenie klasyfikatora 1.6.3. Wymiar Vapnika-Chervonenkisa 1.6.4. Metoda PAC 1.7. Uczenie nadzorowane 1.8. Uczenie nienadzorowane 1.9. Uczenie półnadzorowane 1.10. Uczenie przez wzmacnianie 1.11. Twierdzenie Nofree lunches 2. Metody wstępnego przetwarzania danych 2.1. Popularne zbiory rzeczywistych danych 2.2. Typy wartości w atrybutach 2.2.1. Typ numeryczny 2.2.2.Typkategorialny 2.3. Oczyszczanie danych 2.3.1. Praca z nieprawidłowymi wartościami 2.3.2. Uzupełnianie brakujących wartości 2.4. Redukcja wymiarowości systemu 2.4.1. Analiza głównych składowych 2.4.2. Nadzorowana redukcja wymiarowości za pomocą liniowej analizy dyskryminacyjnej 2.4.3. Ocena istotności atrybutów za pomocą korelacji 2.4.4. Inne metody redukcji wymiarowości danych 3. Uczenie modeli i ich metryki 3.1. Parametry wydajności 3.1.1. Dokładność globalna 3.1.2. Dokładność zbalansowana 3.1.3. Stopień prawidłowej trafności w klasę decyzyjną 3.1.4. Stopień prawidłowej nietrafności w klasę decyzyjną 3.1.5. Stopień błędnej trafności w klasę decyzyjną 3.1.6. Stopień błędnej nietrafności w klasę decyzyjną 3.1.7. Precyzja 3.1.8. Pełność 3.1.9. Wskaźnik F1 3.1.10. Dobór precyzji i pełności dla modelu 3.1.11. Krzywa ROC 3.2. Funkcje kosztu 3.2.1. Pojęcie funkcji kosztu 3.2.2. Błąd średniokwadratowy 3.2.3. Funkcja Hubera 3.2.4. Binarna entropia krzyżowa 3.2.5. Kategorialna entropia krzyżowa 3.2.6. Funkcja zawiasowa 3.3. Metody oceny wydajności modeli 3.3.1. Metoda "trenuj i testuj" 3.3.2. /t-krotna walidacja krzyżowa 3.3.3. Walidacja krzyżowa Monte Carlo 3.3.4. Wewnętrzna walidacja krzyżowa 3.3.5. Leave one out 3.3.6. Bootstrap 3.3.7.Bagging 3.3.8. Losowe lasy 3.4. Zjawisko przetrenowania i niedotrenowania modelu 3.4.1. Problem przetrenowania i niedotrenowania 3.4.2. Przyczyny niedotrenowania i przetrenowania modeli 3.4.3. Wykorzystanie podzbiorów walidacyjnych 3.4.4. Ewaluacja stopnia wytrenowania modelu na podstawie metody T&T 3.4.5. Obciążenie modelu 3.4.6. Wariancja modelu 3.5. Regularyzacja 3.5.1. Regularyzacja grzbietowa 3.5.2. Regularyzacja lasso 3.5.3. Regularyzacja ElasticNet 4. Wprowadzenie do sztucznych sieci neuronowych 4.1. Perceptron - podstawowa jednostka sieci neuronowej 4.2. Sztuczna sieć neuronowa 4.3. Funkcja aktywacji 4.3.1. Idea funkcji aktywacji 4.3.2. Popularne funkcje aktywacji 4.4. Metody optymalizacyjne 4.4.1. Metoda gradientu prostego 4.4.2. Momentum 4.4.3. Przyspieszony spadek wzdłuż gradientu 4.4.4. RMSProp 4.4.5. Adaptive moment estimation (Adam) 4.5. Uczenie sztucznej sieci neuronowej 4.6. Metody projektowania sieci neuronowych do klasyfikacji i regresji 5. Problemy uczenia głębokiego 5.1. Niestabilne gradienty 5.1.1. Metody inicjalizacji wag sieci neuronowych 5.1.2. Dobór funkcji aktywacji 5.1.3. Normalizacja wsadowa 5.1.4. Obcinanie gradientu 5.2. Regularyzacja 5.2.1. Wczesne zatrzymywanie 5.2.2. Dropout 5.3. Regularyzacja metodą Monte Carlo 5.4. Regularyzacja metodą max-norm 5.5. Metody projektowania sieci neuronowych odpornych na problemy uczenia głębokiego 6. Implementacja sieci neuronowych z zastosowaniem biblioteki TensorFlow 6.1. Keras 6.1.1. Instalacja w środowisku języka Python 6.1.2. Weryfikacja poprawności instalacji oraz wersji biblioteki 6.1.3. Wbudowane warstwy modeli sieci neuronowych 6.1.4. Podstawowe metody i atrybuty warstw 6.2. Tworzenie modeli z zastosowaniem interfejsu Keras 6.2.1. Sequential API 6.2.2. Functional API 6.2.3. Subclassing API 6.3. Wizualizacja, trening, ocena wydajności i zapisywanie modelu 6.4. Studium przypadku - budowa modelu decyzyjnego diagnozującego schorzenia układu krążenia 7. Wdrażanie wytrenowanych modeli w chmurze publicznej 7.1. Chmura publiczna 7.2. Usługi bezserwerowe 7.3. Google Cloud Platform 7.4. Wdrażanie modeli za pomocą Google Cloud Platform 7.5. Wykonywanie predykcji za pomocą wdrożonego modelu
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153465 N (1 egz.)
Książka
W koszyku
Na stronie tytułowej: Wydanie II, zawiera analizę metod wieloagentowych i zaawansowanych technik eksploracyjnych. Informacja o wydaniu dotyczy oryginału.
Czym jest uczenie przez wzmacnianie Zestaw narzedzi OpenAl Gym Uczenie głębokie przy użyciu biblioteki PyTorch Metoda entropii krzyżowej Uczenie tabelaryczne i równanie Bellmana Głębokie sieci Biblioteki wy zszego poziomu uczenia przez wzmacnianie Rozszerzenia sieci DQN Sposoby przyspieszenia metod uczenia przez wzmacnianie Inwestowanie na giełdzie za pomocą metod uczenia przez wzmacnianie Alternatywa - gradienty polityki Metoda aktor-krytyk Asynchroniczna wersja metody aktor-krytyk Trenowanie chatbotów z wykorzystaniem uczenia przez wzmacnianie Środowisko TextWorld Nawigacja w sieci Ciągła przestrzeń akcji Metody uczenia przez wzmacnianie w robotyce Regiony zaufania - PPO, TRPO, ACKTR i SAC Optymalizacja typu "czarna skrzynka" w przypadku uczenia przez wzmacnianie Zaawansowana eksploracja Alternatywa dla metody bezmodelowej - agent wspomagany wyobraźnią alphaGo Zero Użycie metod uczenia przez wzmacnianie w optymalizacji dyskretnej Metoda wieloagentowa
Sygnatura czytelni BWEAiI: XII Ą 150
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 152597 (1 egz.)
Książka
W koszyku
Deep Learning : receptury / Douwe Osinga ; tłumaczenie Piotr Rajca. - Gliwice : Wydawnictwo Helion, copyright 2019. - 238 stron : ilustarcje ; 24 cm.
Tytuł oryginału: Deep Learning Cookbook : Practical Recipies to Get Started Quickly.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Na książce także ISBN oryginału: 9781491995846
Indeks.
1. Narzędzia i techniki 15 1.1. Typy sieci neuronowych 15 1.2. Pozyskiwanie danych 25 1.3. Wstępne przetwarzanie danych 31 2. Aby ruszyć z miejsca 39 2.1. Jak stwierdzić, że utknęliśmy? 39 2.2. Poprawianie błędów czasu wykonania 40 2.3. Sprawdzanie wyników pośrednich 42 2.4. Wybór odpowiedniej funkcji aktywacji (w warstwie wyjściowej) 43 2.5. Regularyzacja i porzucanie 45 2.6. Struktura sieci, wielkość wsadów i tempo uczenia 46 3. Obliczanie podobieństwa słów przy użyciu wektorów właściwościowych 49 3.1. Stosowanie nauczonych modeli wektorów właściwościowych do określania podobieństw między wyrazami 50 3.2. Operacje matematyczne z użyciem Word2vec 52 3.3. Wizualizacja wektorów właściwościowych 54 3.4. Znajdowanie klas obiektów z wykorzystaniem wektorów właściwościowych 55 3.5. Obliczanie odległości semantycznych w klasach 59 3.6. Wizualizacja danych kraju na mapie 60 4. Tworzenie systemu rekomendacji na podstawie odnośników wychodzących z Wikipedii 63 4.1. Pozyskiwanie danych 63 4.2. Uczenie wektorów właściwościowych filmów 67 4.3. Tworzenie systemu rekomendacji filmów 70 4.4. Prognozowanie prostych właściwości filmu 71 5. Generowanie tekstu wzorowanego na przykładach 73 5.1. Pobieranie ogólnie dostępnych tekstów 73 5.2. Generowanie tekstów przypominających dzieła Szekspira 74 5.3. Pisanie kodu z wykorzystaniem rekurencyjnej sieci neuronowej 77 5.4. Kontrolowanie temperatury wyników 79 5.5. Wizualizacja aktywacji rekurencyjnych sieci neuronowych 81 6. Dopasowywanie pytań 83 6.1. Pobieranie danych ze Stack Exchange 83 6.2. Badanie danych przy użyciu biblioteki Pandas 85 6.3. Stosowanie Keras do określania cech tekstu 86 6.4. Tworzenie modelu pytanie - odpowiedź 87 6.5. Uczenie modelu z użyciem Pandas 88 6.6. Sprawdzanie podobieństw 90 7. Sugerowanie emoji 93 7.1. Tworzenie prostego klasyfikatora nastawienia 93 7.2. Badanie prostego klasyfikatora 96 7.3. Stosowanie sieci konwolucyjnych do analizy nastawienia 97 7.4. Gromadzenie danych z Twittera 99 7.5. Prosty mechanizm prognozowania emoji 100 7.6. Porzucanie i wiele okien 102 7.7. Tworzenie modelu operującego na słowach 103 7.8. Tworzenie własnych wektorów właściwościowych 105 7.9. Stosowanie rekurencyjnych sieci neuronowych do klasyfikacji 107 7.10. Wizualizacja (nie)zgody 108 7.11. Łączenie modeli 111 8. Odwzorowywanie sekwencji na sekwencje 113 8.1. Uczenie prostego modelu typu sekwencja na sekwencję 113 8.2. Wyodrębnianie dialogów z tekstów 115 8.3. Obsługa otwartego słownika 116 8.4. Uczenie chatbota z użyciem frameworka seq2seq 118 9. Stosowanie nauczonej już sieci do rozpoznawania obrazów 123 9.1. Wczytywanie nauczonej sieci neuronowej 124 9.2. Wstępne przetwarzanie obrazów 124 9.3. Przeprowadzanie wnioskowania na obrazach 126 9.4. Stosowanie API serwisu Flickr do gromadzenia zdjęć z etykietami 127 9.5. Tworzenie klasyfikatora, który potrafi odróżniać koty od psów 128 9.6. Poprawianie wyników wyszukiwania 130 9.7. Ponowne uczenie sieci rozpoznającej obrazy 132 10. Tworzenie usługi odwrotnego wyszukiwania obrazów 135 10.1. Pozyskiwanie obrazów z Wikipedii 135 10.2. Rzutowanie obrazów na przestrzeń n-wymiarową 138 10.3. Znajdowanie najbliższych sąsiadów w przestrzeni n-wymiarowej 139 10.4. Badanie lokalnych sąsiedztw w wektorach właściwościowych 140 11. Wykrywanie wielu obrazów 143 11.1. Wykrywanie wielu obrazów przy użyciu nauczonego klasyfikatora 143 11.2. Stosowanie sieci Faster R-CNN do wykrywania obrazów 147 11.3. Stosowanie Faster R-CNN na własnych obrazach 149 12. Styl obrazu 153 12.1. Wizualizacja aktywacji sieci CNN 153 12.2. Oktawy i skalowanie 157 12.3. Wizualizacja tego, co sieć neuronowa prawie widzi 158 12.4. Jak uchwycić styl obrazu? 161 12.5. Poprawianie funkcji straty w celu zwiększenia koherencji obrazu 164 12.6. Przenoszenie stylu na inny obraz 166 12.7. Interpolacja stylu 167 13. Generowanie obrazów przy użyciu autoenkoderów 169 13.1. Importowanie rysunków ze zbioru Google Quick Draw 170 13.2. Tworzenie autoenkodera dla obrazów 171 13.3. Wizualizacja wyników autoenkodera 173 13.4. Próbkowanie obrazów z właściwego rozkładu 175 13.5. Wizualizacja przestrzeni autoenkodera wariacyjnego 178 13.6. Warunkowe autoenkodery wariacyjne 179 14. Generowanie ikon przy użyciu głębokich sieci neuronowych 183 14.1. Zdobywanie ikon do uczenia sieci 184 14.2. Konwertowanie ikon na tensory 186 14.3. Stosowanie autoenkodera wariacyjnego do generowania ikon 187 14.4. Stosowanie techniki rozszerzania danych do poprawy wydajności autoenkodera 190 14.5. Tworzenie sieci GAN 191 14.6. Uczenie sieci GAN 193 14.7. Pokazywanie ikon generowanych przez sieć GAN 194 14.8. Kodowanie ikon jako instrukcji rysowniczych 196 14.9. Uczenie sieci rekurencyjnych rysowania ikon 197 14.10. Generowanie ikon przy użyciu sieci rekurencyjnych 199 15. Muzyka a uczenie głębokie 201 15.1. Tworzenie zbioru uczącego na potrzeby klasyfikowania muzyki 202 15.2. Uczenie detektora gatunków muzyki 204 15.3. Wizualizacja pomyłek 206 15.4. Indeksowanie istniejącej muzyki 207 15.5. Konfiguracja API dostępu do serwisu Spotify 209 15.6. Zbieranie list odtwarzania i utworów ze Spotify 210 15.7. Uczenie systemu sugerowania muzyki 213 15.8. Sugerowanie muzyki przy wykorzystaniu modelu Word2vec 214 16. Przygotowywanie systemów uczenia maszynowego do zastosowań produkcyjnych 217 16.1. Użycie algorytmu najbliższych sąsiadów scikit-learn do obsługi wektorów właściwościowych 218 16.2. Stosowanie Postgresa do przechowywania wektorów właściwościowych 219 16.3. Zapisywanie i przeszukiwanie wektorów właściwościowych przechowywanych w bazie Postgres 220 16.4. Przechowywanie modeli wysokowymiarowych w Postgresie 221 16.5. Pisanie mikroserwisów w języku Python 222 16.6. Wdrażanie modelu Keras z użyciem mikroserwisu 224 16.7. Wywoływanie mikroserwisu z poziomu frameworka internetowego 225 16.8. Modele seq2seq TensorFlow 226 16.9. Uruchamianie modeli uczenia głębokiego w przeglądarkach 227 16.10. Wykonywanie modeli Keras przy użyciu serwera TensorFlow 230 16.11. Stosowanie modeli Keras z poziomu iOS-a 232
Sygnatura czytelni BWEAiI: XII Ł 163
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148497 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: TensorFlow for deep learning
Na stronie tytułoweji okładce również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Indeks.
1. Wprowadzenie do uczenia głębokiego 11 Uczenie maszynowe pożera informatykę 11 Podstawowe elementy uczenia głębokiego 12 W pełni połączona warstwa 13 Warstwa splotowa 13 Warstwy rekurencyjnej sieci neuronowej 14 Komórki LSTM 15 Architektury uczenia głębokiego 15 LeNet 16 AlexNet 16 ResNet 17 Automatyczne generowanie opisów 18 Neuronowe tłumaczenie maszynowe firmy Google 18 Modele jednorazowe 19 AlfaGo 21 Generatywne sieci kontradyktoryjne 22 Neuronowe maszyny Turinga 23 Środowiska uczenia głębokiego 23 Ograniczenia TensorFlow 24 2. Wprowadzenie do podstawowych elementów TensorFlow 27 Poznajemy tensory 27 Skalary, wektory i macierze 28 Algebra macierzy 31 Tensory 33 Tensory w fizyce 34 Dygresje matematyczne 35 Proste obliczenia w TensorFlow 36 Instalacja TensorFlow i rozpoczęcie pracy 36 Inicjalizacja stałych tensorów 37 Próbkowanie losowych tensorów 38 Dodawanie i skalowanie tensorów 39 Operacje na macierzach 39 Typy tensorów 41 Manipulacje kształtem tensora 41 Wprowadzenie do rozgłaszania 42 Programowanie imperatywne i deklaratywne 43 Grafy TensorFlow 44 Sesje TensorFlow 45 Zmienne TensorFlow 45 3. Regresja liniowa i logistyczna z TensorFlow 49 Przegląd matematyczny 49 Funkcje i różniczkowalność 49 Funkcje straty 51 Metoda gradientu prostego 55 Systemy automatycznego różniczkowania 57 Uczenie z TensorFlow 59 Tworzenie ćwiczebnych zbiorów danych 59 Nowe koncepcje TensorFlow 64 Uczenie modeli liniowych i logistycznych w TensorFlow 68 Regresja liniowa w TensorFlow 68 Regresja logistyczna w TensorFlow 75 4. W pełni połączone sieci głębokie 81 Czym jest w pełni połączona sieć głęboka? 81 "Neurony" w sieciach w pełni połączonych 83 Uczenie w pełni połączonych sieci z propagacją wsteczną 85 Twierdzenie o uniwersalnej zbieżności 86 Dlaczego głębokie sieci? 87 Szkolenie w pełni połączonych sieci neuronowych 88 Reprezentacje możliwe do uczenia 88 Aktywacje 89 Zapamiętywanie w sieciach w pełni połączonych 89 Regularyzacja 90 Szkolenie sieci w pełni połączonych 93 Implementacja w TensorFlow 93 Instalacja DeepChem 93 Zbiór danych Tox21 94 Przyjmowanie minigrup węzłów zastępczych 95 Implementacja warstwy ukrytej 95 Dodawanie porzucania do warstwy ukrytej 96 Implementacja minigrup 97 Ocena dokładności modelu 97 Korzystanie z TensorBoard do śledzenia zbieżności modeli 98 5. Optymalizacja hiperparametrów 101 Ewaluacja modelu i optymalizacja hiperparametrów 102 Wskaźniki, wskaźniki, wskaźniki 103 Wskaźniki klasyfikacji binarnej 103 Wskaźniki klasyfikacji wieloklasowej 106 Wskaźniki regresji 107 Algorytmy optymalizacji hiperparametrów 108 Ustalenie linii bazowej 108 Metoda spadku studenta 110 Metoda przeszukiwania siatki 111 Losowe wyszukiwanie hiperparametrów 112 Zadanie dla czytelnika 113 6. Splotowe sieci neuronowe 115 Wprowadzenie do architektur splotowych 116 Lokalne pola recepcyjne 116 Jądra splotowe 118 Warstwy łączące 120 Tworzenie sieci splotowych 120 Rozszerzone warstwy splotowe 121 Zastosowania sieci splotowych 122 Wykrywanie i lokalizacja obiektów 122 Segmentacja obrazu 123 Sploty grafowe 123 Generowanie obrazów przy użyciu autokoderów wariacyjnych 124 Trenowanie sieci splotowej w TensorFlow 129 Zbiór danych MNIST 129 Wczytywanie zbioru MNIST 130 Podstawowe elementy sieci splotowych w TensorFlow 132 Architektura splotowa 134 Ewaluacja trenowanych modeli 137 7. Rekurencyjne sieci neuronowe 141 Przegląd architektur rekurencyjnych 142 Komórki rekurencyjne 144 Długa pamięć krótkoterminowa (LSTM) 144 Bramkowane jednostki rekurencyjne (GRU) 146 Zastosowania modeli rekurencyjnych 146 Generowanie danych przez sieci rekurencyjne 146 Modele seq2seq 147 Neuronowe maszyny Turinga 149 Praca z rekurencyjnymi sieciami neuronowymi w praktyce 150 Przetwarzanie korpusu językowego Penn Treebank 151 Kod przetwarzania wstępnego 152 Wczytywanie danych do TensorFlow 154 Podstawowa architektura rekurencyjna 155 Zadanie dla czytelnika 157 8. Uczenie przez wzmacnianie 159 Procesy decyzyjne Markowa 163 Algorytmy uczenia przez wzmacnianie 164 Q-uczenie 165 Uczenie się polityki 166 Szkolenie asynchroniczne 168 Ograniczenia uczenia przez wzmacnianie 168 Gra w kółko i krzyżyk 170 Obiektowość 170 Abstrakcyjne środowisko 171 Środowisko gry w kółko i krzyżyk 171 Abstrakcja warstwowa 174 Definiowanie grafu warstw 176 Algorytm A3C 180 Funkcja straty A3C 183 Definiowanie wątków roboczych 185 Trenowanie polityki 187 Zadanie dla czytelnika 188 9. Szkolenie dużych głębokich sieci 191 Specjalistyczny sprzęt dla głębokich sieci 191 Szkolenie z użyciem CPU 192 Szkolenie z użyciem GPU 193 Procesory tensorowe 194 Bezpośrednio programowalne macierze bramek 195 Układy neuromorficzne 196 Rozproszone szkolenie głębokich sieci 197 Równoległość danych 197 Równoległość modeli 198 Szkolenie na równoległych danych z użyciem wielu układów GPU na zbiorze CIFAR10 199 Pobieranie i wczytywanie danych 201 Głębokie zanurzenie w architekturę 202 Szkolenie na wielu układach GPU 204 Zadanie dla czytelnika 206 10. Przyszłość głębokiego uczenia 209 Głębokie uczenie poza branżą techniczną 209 Głębokie uczenie w przemyśle farmaceutycznym 210 Głębokie uczenie w prawie 211 Głębokie uczenie w robotyce 211 Głębokie uczenie w rolnictwie 212 Etyczne wykorzystanie głębokiego uczenia 212 Czy uniwersalna sztuczna inteligencja jest nieuchronna? 214
Sygnatura czytelni BWEAiI: XII E 116
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149942 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Python machine learning : machine learning and deep learning with Pyton, scikit-learn and TensorFlow.
Wydanie 2. odnosi się do oryginału.
Na książce także ISBN oryginału.
Indeks.
Rozdział 1. Umożliwianie komputerom uczenia się z danych 23 Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę 24 Trzy różne rodzaje uczenia maszynowego 24 Prognozowanie przyszłości za pomocą uczenia nadzorowanego 25 Rozwiązywanie problemów interaktywnych za pomocą uczenia przez wzmacnianie 28 Odkrywanie ukrytych struktur za pomocą uczenia nienadzorowanego 29 Wprowadzenie do podstawowej terminologii i notacji 30 Strategia tworzenia systemów uczenia maszynowego 32 Wstępne przetwarzanie - nadawanie danym formy 32 Trenowanie i dobór modelu predykcyjnego 34 Ewaluacja modeli i przewidywanie wystąpienia nieznanych danych 34 Wykorzystywanie środowiska Python do uczenia maszynowego 35 Instalacja środowiska Python i pakietów z repozytorium Python Package Index 35 Korzystanie z platformy Anaconda i menedżera pakietów 36 Pakiety przeznaczone do obliczeń naukowych, analizy danych i uczenia maszynowego 36 Rozdział 2. Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji 39 Sztuczne neurony - rys historyczny początków uczenia maszynowego 40 Formalna definicja sztucznego neuronu 41 Reguła uczenia perceptronu 43 Implementacja algorytmu uczenia perceptronu w Pythonie 45 Obiektowy interfejs API perceptronu 45 Trenowanie modelu perceptronu na zestawie danych Iris 48 Adaptacyjne neurony liniowe i zbieżność uczenia 53 Minimalizacja funkcji kosztu za pomocą metody gradientu prostego 55 Implementacja algorytmu Adaline w Pythonie 56 Usprawnianie gradientu prostego poprzez skalowanie cech 60 Wielkoskalowe uczenie maszynowe i metoda stochastycznego spadku wzdłuż gradientu 62 Rozdział 3. Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn 67 Wybór algorytmu klasyfikującego 68 Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu 68 Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej 74 Teoretyczne podłoże regresji logistycznej i prawdopodobieństwa warunkowego 74 Wyznaczanie wag logistycznej funkcji kosztu 78 Przekształcanie implementacji Adaline do postaci algorytmu regresji logistycznej 80 Uczenie modelu regresji logistycznej za pomocą biblioteki scikit-learn 84 Zapobieganie przetrenowaniu za pomocą regularyzacji 86 Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych 88 Teoretyczne podłoże maksymalnego marginesu 89 Rozwiązywanie przypadków nieliniowo rozdzielnych za pomocą zmiennych uzupełniających 90 Alternatywne implementacje w interfejsie scikit-learn 92 Rozwiązywanie nieliniowych problemów za pomocą jądra SVM 93 Metody jądrowe dla danych nierozdzielnych liniowo 93 Stosowanie sztuczki z funkcją jądra do znajdowania przestrzeni rozdzielających w przestrzeni wielowymiarowej 95 Uczenie drzew decyzyjnych 99 Maksymalizowanie przyrostu informacji - osiąganie jak największych korzyści 100 Budowanie drzewa decyzyjnego 103 Łączenie wielu drzew decyzyjnych za pomocą modelu losowego lasu 107 Algorytm k-najbliższych sąsiadów - model leniwego uczenia 109 Rozdział 4. Tworzenie dobrych zbiorów uczących - wstępne przetwarzanie danych 115 Kwestia brakujących danych 115 Wykrywanie brakujących wartości w danych tabelarycznych 116 Usuwanie próbek lub cech niezawierających wartości 117 Wstawianie brakujących danych 118 Estymatory interfejsu scikit-learn 119 Przetwarzanie danych kategoryzujących 119 Cechy nominalne i porządkowe 120 Tworzenie przykładowego zestawu danych 120 Mapowanie cech porządkowych 121 Kodowanie etykiet klas 121 Kodowanie "gorącojedynkowe" cech nominalnych (z użyciem wektorów własnych) 122 Rozdzielanie zestawu danych na oddzielne podzbiory uczące i testowe 124 Skalowanie cech 127 Dobór odpowiednich cech 129 Regularyzacje L1 i L2 jako kary ograniczające złożoność modelu 129 Interpretacja geometryczna regularyzacji L2 130 Rozwiązania rzadkie za pomocą regularyzacji L1 131 Algorytmy sekwencyjnego wyboru cech 135 Ocenianie istotności cech za pomocą algorytmu losowego lasu 140 Rozdział 5. Kompresja danych poprzez redukcję wymiarowości 143 Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych 144 Podstawowe etapy analizy głównych składowych 144 Wydobywanie głównych składowych krok po kroku 146 Wyjaśniona wariancja całkowita 148 Transformacja cech 149 Analiza głównych składowych w interfejsie scikit-learn 152 Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej 154 Porównanie analizy głównych składowych z liniową analizą dyskryminacyjną 155 Wewnętrzne mechanizmy działania liniowej analizy dyskryminacyjnej 156 Obliczanie macierzy rozproszenia 157 Dobór dyskryminant liniowych dla nowej podprzestrzeni cech 159 Rzutowanie próbek na nową przestrzeń cech 161 Implementacja analizy LDA w bibliotece scikit-learn 161 Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas 163 Funkcje jądra oraz sztuczka z funkcją jądra 164 Implementacja jądrowej analizy głównych składowych w Pythonie 168 Rzutowanie nowych punktów danych 175 Algorytm jądrowej analizy głównych składowych w bibliotece scikit-learn 178 Rozdział 6. Najlepsze metody oceny modelu i strojenie parametryczne 181 Usprawnianie cyklu pracy za pomocą kolejkowania 181 Wczytanie zestawu danych Breast Cancer Wisconsin 182 Łączenie funkcji transformujących i estymatorów w kolejce czynności 183 Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu 184 Metoda wydzielania 185 K-krotny sprawdzian krzyżowy 186 Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji 190 Diagnozowanie problemów z obciążeniem i wariancją za pomocą krzywych uczenia 190 Rozwiązywanie problemów przetrenowania i niedotrenowania za pomocą krzywych walidacji 193 Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki 195 Strojenie hiperparametrów przy użyciu metody przeszukiwania siatki 195 Dobór algorytmu poprzez zagnieżdżony sprawdzian krzyżowy 196 Przegląd metryk oceny skuteczności 198 Odczytywanie macierzy pomyłek 198 Optymalizacja precyzji i pełności modelu klasyfikującego 200 Wykres krzywej ROC 202 Metryki zliczające dla klasyfikacji wieloklasowej 204 Kwestia dysproporcji klas 205 Rozdział 7. Łączenie różnych modeli w celu uczenia zespołowego 209 Uczenie zespołów 209 Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego 213 Implementacja prostego klasyfikatora głosowania większościowego 214 Stosowanie reguły głosowania większościowego do uzyskiwania prognoz 219 Ewaluacja i strojenie klasyfikatora zespołowego 221 Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych 226 Agregacja w pigułce 227 Stosowanie agregacji do klasyfikowania przykładów z zestawu Wine 228 Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego 231 Wzmacnianie - mechanizm działania 232 Stosowanie algorytmu AdaBoost za pomocą biblioteki scikit-learn 236 Rozdział 8. Wykorzystywanie uczenia maszynowego w analizie sentymentów 241 Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu 242 Uzyskiwanie zestawu danych IMDb 242 Przetwarzanie wstępne zestawu danych IMDb do wygodniejszego formatu 243 Wprowadzenie do modelu worka słów 244 Przekształcanie słów w wektory cech 245 Ocena istotności wyrazów za pomocą ważenia częstości termów - odwrotnej częstości w tekście 246 Oczyszczanie danych tekstowych 248 Przetwarzanie tekstu na znaczniki 249 Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu 251 Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe 253 Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta 256 Rozkładanie dokumentów tekstowych za pomocą analizy LDA 257 Analiza LDA w bibliotece scikit-learn 258 Rozdział 9. Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej 263 Serializacja wyuczonych estymatorów biblioteki scikit-learn 264 Konfigurowanie bazy danych SQLite 266 Tworzenie aplikacji sieciowej za pomocą środowiska Flask 269 Nasza pierwsza aplikacja sieciowa 269 Sprawdzanie i wyświetlanie formularza 271 Przekształcanie klasyfikatora recenzji w aplikację sieciową 275 Pliki i katalogi - wygląd drzewa katalogów 277 Implementacja głównej części programu w pliku app.py 277 Konfigurowanie formularza recenzji 280 Tworzenie szablonu strony wynikowej 281 Umieszczanie aplikacji sieciowej na publicznym serwerze 282 Tworzenie konta w serwisie PythonAnywhere 283 Przesyłanie aplikacji klasyfikatora filmowego 283 Aktualizowanie klasyfikatora recenzji filmowych 284 Rozdział 10. Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej 287 Wprowadzenie do regresji liniowej 288 Prosta regresja liniowa 288 Wielowymiarowa regresja liniowa 288 Zestaw danych Housing 290 Wczytywanie zestawu danych Housing do obiektu DataFrame 290 Wizualizowanie ważnych elementów zestawu danych 292 Analiza związków za pomocą macierzy korelacji 293 Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów 296 Określanie parametrów regresywnych za pomocą metody gradientu prostego 296 Szacowanie współczynnika modelu regresji za pomocą biblioteki scikit-learn 300 Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC 301 Ocenianie skuteczności modeli regresji liniowej 304 Stosowanie regularyzowanych metod regresji 307 Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa 308 Dodawanie członów wielomianowych za pomocą biblioteki scikit-learn 309 Modelowanie nieliniowych zależności w zestawie danych Housing 310 Analiza nieliniowych relacji za pomocą algorytmu losowego lasu 314 Rozdział 11. Praca z nieoznakowanymi danymi - analiza skupień 319 Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów 320 Algorytm centroidów w bibliotece scikit-learn 320 Inteligentniejszy sposób dobierania pierwotnych centroidów za pomocą algorytmu k-means++ 324 Klasteryzacja twarda i miękka 325 Stosowanie metody łokcia do wyszukiwania optymalnej liczby skupień 327 Ujęcie ilościowe jakości klasteryzacji za pomocą wykresu profilu 328 Organizowanie skupień do postaci drzewa klastrów 333 Oddolne grupowanie skupień 333 Przeprowadzanie hierarchicznej analizy skupień na macierzy odległości 335 Dołączanie dendrogramów do mapy cieplnej 338 Aglomeracyjna analiza skupień w bibliotece scikit-learn 339 Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN 340 Rozdział 12. Implementowanie wielowarstwowej sieci neuronowej od podstaw 347 Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych 348 Jednowarstwowa sieć neuronowa - powtórzenie 349 Wstęp do wielowarstwowej architektury sieci neuronowych 351 Aktywacja sieci neuronowej za pomocą propagacji w przód 354 Klasyfikowanie pisma odręcznego 356 Zestaw danych MNIST 357 Implementacja perceptronu wielowarstwowego 362 Trenowanie sztucznej sieci neuronowej 371 Obliczanie logistycznej funkcji kosztu 371 Ujęcie intuicyjne algorytmu wstecznej propagacji 374 Uczenie sieci neuronowych za pomocą algorytmu propagacji wstecznej 375 Zbieżność w sieciach neuronowych 378 Jeszcze słowo o implementacji sieci neuronowej 380 Rozdział 13. Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow 381 Biblioteka TensorFlow a skuteczność uczenia 382 Czym jest biblioteka TensorFlow? 383 W jaki sposób będziemy poznawać bibliotekę TensorFlow? 384 Pierwsze kroki z biblioteką TensorFlow 384 Praca ze strukturami tablicowymi 386 Tworzenie prostego modelu za pomocą podstawowego interfejsu TensorFlow 387 Skuteczne uczenie sieci neuronowych za pomocą wyspecjalizowanych interfejsów biblioteki TensorFlow 391 Tworzenie wielowarstwowych sieci neuronowych za pomocą interfejsu Layers 392 Projektowanie wielowarstwowej sieci neuronowej za pomocą interfejsu Keras 395 Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych 400 Funkcja logistyczna - powtórzenie 400 Szacowanie prawdopodobieństw przynależności do klas w klasyfikacji wieloklasowej za pomocą funkcji softmax 402 Rozszerzanie zakresu wartości wyjściowych za pomocą funkcji tangensa hiperbolicznego 403 Aktywacja za pomocą prostowanej jednostki liniowej (ReLU) 405 Rozdział 14. Czas na szczegóły - mechanizm działania biblioteki TensorFlow 409 Główne funkcje biblioteki TensorFlow 410 Rzędy i tensory 410 Sposób uzyskania rzędu i wymiarów tensora 411 Grafy obliczeniowe 412 Węzły zastępcze 414 Definiowanie węzłów zastępczych 414 Wypełnianie węzłów zastępczych danymi 415 Definiowanie węzłów zastępczych dla tablic danych o różnych rozmiarach pakietów danych 416 Zmienne 417 Definiowanie zmiennych 417 Inicjowanie zmiennych 419 Zakres zmiennych 420 Wielokrotne wykorzystywanie zmiennych 421 Tworzenie modelu regresyjnego 423 Realizowanie obiektów w grafie TensorFlow przy użyciu ich nazw 426 Zapisywanie i wczytywanie modelu 428 Przekształcanie tensorów jako wielowymiarowych tablic danych 430 Wykorzystywanie mechanizmów przebiegu sterowania do tworzenia grafów 433 Wizualizowanie grafów za pomocą modułu TensorBoard 436 Zdobywanie doświadczenia w używaniu modułu TensorBoard 439 Rozdział 15. Klasyfikowanie obrazów za pomocą splotowych sieci neuronowych 441 Podstawowe elementy splotowej sieci neuronowej 442 Splotowe sieci neuronowe i hierarchie cech 442 Splot dyskretny 444 Podpróbkowanie 452 Konstruowanie sieci CNN 454 Praca z wieloma kanałami wejściowymi/barw 454 Regularyzowanie sieci neuronowej metodą porzucania 457 Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow 459 Architektura wielowarstwowej sieci CNN 459 Wczytywanie i wstępne przetwarzanie danych 460 Implementowanie sieci CNN za pomocą podstawowego interfejsu TensorFlow 461 Implementowanie sieci CNN za pomocą interfejsu Layers 471 Rozdział 16. Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych 477 Wprowadzenie do danych sekwencyjnych 478 Modelowanie danych sekwencyjnych - kolejność ma znaczenie 478 Przedstawianie sekwencji 478 Różne kategorie modelowania sekwencji 479 Sieci rekurencyjne służące do modelowania sekwencji 480 Struktura sieci RNN i przepływ danych 480 Obliczanie aktywacji w sieciach rekurencyjnych 482 Problemy z uczeniem długofalowych oddziaływań 485 Jednostki LSTM 486 Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji 488 Pierwszy projekt - analiza sentymentów na zestawie danych IMDb za pomocą wielowarstwowej sieci rekurencyjnej 489 Przygotowanie danych 489 Wektor właściwościowy 492 Budowanie modelu sieci rekurencyjnej 494 Konstruktor klasy SentimentRNN 495 Metoda build 495 Metoda train 499 Metoda predict 500 Tworzenie wystąpienia klasy SentimentRNN 500 Uczenie i optymalizowanie modelu sieci rekurencyjnej przeznaczonej do analizy sentymentów 501 Drugi projekt - implementowanie sieci rekurencyjnej modelującej język na poziomie znaków 502 Przygotowanie danych 503 Tworzenie sieci RNN przetwarzającej znaki 506 Konstruktor 506 Metoda build 507 Metoda train 509 Metoda sample 510 Tworzenie i uczenie modelu CharRNN 512 Model CharRNN w trybie próbkowania 512
Sygnatura czytelni BWEAiI: XII Ł 153
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148069 N (1 egz.)
Brak okładki
Książka
W koszyku
Tytuł oryginału: The deep learning revolution.
Indeks.
Część I. Nowe spojrzenie na inteligencję 1. Rozwój uczenia maszynowego 2. Odrodzenie sztucznej inteligencji 3. Świt sieci neuronowych 4. Obliczenia wzorowane na mózgu 5. Wskazówki od systemu wzrokowego Część II. Wiele sposobów uczenia się 6. Problem przyjęcia koktajlowego 7. Sieć Hopfielda i maszyna Boltzmanna 8. Wsteczna propagacja błędów 9. Uczenie konwolucyjne 10. Uczenie z nagrodą 11. Neuronowe systemy przetwarzania informacji Część III. Oddziaływanie na naukę i technologię 12. Przyszłość uczenia maszynowego 13. Epoka algorytmów 14. Dzień dobry, panie Chips. 15. Informacje wewnętrzne 16. Świadomość 17. Natura jest mądrzejsza od nas 18. Głęboka inteligencja
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 148128 (1 egz.)
Książka
W koszyku
Głębokie uczenie : wprowadzenie / Jacek Tabor, Marek Śmieja, Łukasz Struski, Przemysław Spurek, Maciej Wołczyk. - Gliwice : Helion, copyright 2022. - 179 stron : fotografie, ilustracje, wykresy ; 24 cm.
Bibliografia na stronach 177-179.
1Wprowadzenie do uczenia maszynowego 2.1Analiza modelu i funkcja kosztu 2.2Minimalizacja funkcji kosztu 3Uczenie nienadzorowane 3.1Klastrowanie: k-means 3.2Redukcja wymiarowości: PCA 3.3Estymacja gęstości 4Uczenie nadzorowane: regresja 4.1Regresja liniowa 4.2Zanurzenie 4.3Ewaluacja modelu nadzorowanego 5Uczenie nadzorowane: klasyfikacja 5.1Wprowadzenie do klasyfikacji 5.2Klasyfikacja binarna: SVM 5.3Klasyfikacja wieloklasowa: regresja logistyczna 5.4Ocena modelu klasyfikacji 5.5Klasyfikacja niezbalansowania 5.6Konstrukcja funkcji kosztu w problemach regresyjnych 6Metody kernelowe 6.1Wprowadzenie do metod kernelowych 6.2Praktyczne użycie skernelizowanych metod 6.3Porównywanie próbek i rozkładów: MMD 7Wprowadzenie do sieci neuronowych 7.1Budowa sieci neuronowych 7.2Klasyfikacja nieliniowa: spojrzenie geometryczne 7.3Uczenie sieci neuronowej na przykładzie regresji 7.4Teoria a praktyka w sieciach neuronowych 8Trenowanie sieci neuronowych 8.1Problem klasyfikacyjny 8.2Optymalizacja za pomocą metody spadku gradientu 8.3Optymalizator Adam 8.4Regularyzacja i augmentacje 8.5Moja sieć neuronowa nie działa: poradnik 9Wprowadzenie do sieci konwolucyjnych 9.1Przetwarzanie obrazów na pomocą sieci fully-connected 9.2Filtry konwolucyjne 9.3Sieci konwolucyjne 10Sieci konwolucyjne w praktyce 10.1Początki sieci konwolucyjnych 10.2Techniki regularyzacyjne 10.3Połączenia rezydualne: ResNet 10.4Wybrane architektury CNN 10.5Finetuning: dostrajanie modelu do nowych zadań 10.6Segmentacja obrazów: U-Net 11Głębokie modele nienadzorowane 11.1Nienadzorowana reprezentacja danych 11.2Modele generatywne: GANy 11.3Estymacja gęstości: invertible normalizing flows 12Rekurencyjne sieci neuronowe 12.1Wprowadzenie do danych sekwencyjnych 12.2Rekurencja jako model autoregresywny 12.3Sieci rekurencyjne (RNN) 12.4Model Seq2Seq 12.5Zaawansowane modele sieci rekurencyjnych 13Atencja 13.1Mechanizm atencji 13.2Atencja w modelu Seq2Seq 13.3Self-attention 13.4Self-attention GAN 13.5Transformer jako rozwinięcie self-atencji
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153016 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Deep learning from scratch : building with Python from first principles.
Na okładce i stronie tytułowej nazwa wydawcy oryginału: O'Reilly.
1. Podstawowe zagadnienia 15 Funkcje 16 Matematyka 16 Diagramy 16 Kod 17 Pochodne 20 Matematyka 20 Diagramy 20 Kod 21 Funkcje zagnieżdżone 22 Diagram 22 Matematyka 22 Kod 23 Inny diagram 23 Reguła łańcuchowa 24 Matematyka 24 Diagram 24 Kod 25 Nieco dłuższy przykład 27 Matematyka 27 Diagram 27 Kod 28 Funkcje z wieloma danymi wejściowymi 29 Matematyka 30 Diagram 30 Kod 30 Pochodne funkcji z wieloma danymi wejściowymi 31 Diagram 31 Matematyka 31 Kod 32 Funkcje przyjmujące wiele wektorów jako dane wejściowe 32 Matematyka 33 Tworzenie nowych cech na podstawie istniejących 33 Matematyka 33 Diagram 33 Kod 34 Pochodne funkcji z wieloma wektorami wejściowymi 35 Diagram 35 Matematyka 36 Kod 36 Następny etap - funkcje wektorowe i ich pochodne 37 Diagram 37 Matematyka 37 Kod 38 Funkcje wektorowe i ich pochodne w kroku wstecz 38 Grafy obliczeniowe z danymi wejściowymi w postaci dwóch macierzy dwuwymiarowych 40 Matematyka 41 Diagram 43 Kod 43 Ciekawa część - krok wstecz 43 Diagram 44 Matematyka 44 Kod 46 2. Wprowadzenie do budowania modeli 51 Wstęp do uczenia nadzorowanego 52 Modele uczenia nadzorowanego 53 Regresja liniowa 55 Regresja liniowa - diagram 55 Regresja liniowa - bardziej pomocny diagram (i obliczenia matematyczne) 57 Dodawanie wyrazu wolnego 58 Regresja liniowa - kod 58 Uczenie modelu 59 Obliczanie gradientów - diagram 59 Obliczanie gradientów - matematyka (i trochę kodu) 60 Obliczanie gradientów - (kompletny) kod 61 Używanie gradientów do uczenia modelu 62 Ocena modelu - testowe i treningowe zbiory danych 63 Ocena modelu - kod 63 Analizowanie najważniejszej cechy 65 Budowanie sieci neuronowych od podstaw 66 Krok 1. Zestaw regresji liniowych 67 Krok 2. Funkcja nieliniowa 67 Krok 3. Inna regresja liniowa 68 Diagramy 68 Kod 70 Sieci neuronowe - krok wstecz 71 Uczenie i ocena pierwszej sieci neuronowej 73 Dwa powody, dla których nowy model jest lepszy 74 3. Deep learning od podstaw 77 Definicja procesu deep learning - pierwszy krok 77 Elementy sieci neuronowych - operacje 79 Diagram 79 Kod 80 Elementy sieci neuronowych - warstwy 82 Diagramy 82 Elementy z elementów 84 Wzorzec warstwy 86 Warstwa gęsta 88 Klasa NeuralNetwork (i ewentualnie inne) 89 Diagram 89 Kod 90 Klasa Loss 90 Deep learning od podstaw 92 Implementowanie treningu na porcjach danych 92 Klasa NeuralNetwork - kod 93 Nauczyciel i optymalizator 95 Optymalizator 95 Nauczyciel 97 Łączenie wszystkich elementów 98 Pierwszy model z dziedziny deep learning (napisany od podstaw) 99 4. Rozszerzenia 101 Intuicyjne rozważania na temat sieci neuronowych 102 Funkcja straty - funkcja softmax z entropią krzyżową 104 Komponent nr 1. Funkcja softmax 104 Komponent nr 2. Entropia krzyżowa 105 Uwaga na temat funkcji aktywacji 108 Eksperymenty 111 Wstępne przetwarzanie danych 111 Model 112 Eksperyment: wartość straty z użyciem funkcji softmax z entropią krzyżową 113 Współczynnik momentum 113 Intuicyjny opis współczynnika momentum 114 Implementowanie współczynnika momentum w klasie Optimizer 114 Eksperyment - algorytm SGD ze współczynnikiem momentum 116 Zmniejszanie współczynnika uczenia 116 Sposoby zmniejszania współczynnika uczenia 116 Eksperymenty - zmniejszanie współczynnika uczenia 118 Inicjowanie wag 119 Matematyka i kod 120 Eksperymenty - inicjowanie wag 121 Dropout 122 Definicja 122 Implementacja 122 Eksperymenty - dropout 123 5. Konwolucyjne sieci neuronowe 127 Sieci neuronowe i uczenie reprezentacji 127 Inna architektura dla danych graficznych 128 Operacja konwolucji 129 Wielokanałowa operacja konwolucji 131 Warstwy konwolucyjne 131 Wpływ na implementację 132 Różnice między warstwami konwolucyjnymi a warstwami gęstymi 133 Generowanie predykcji z użyciem warstw konwolucyjnych - warstwa spłaszczania 134 Warstwy agregujące 135 Implementowanie wielokanałowej operacji konwolucji 137 Krok w przód 137 Konwolucja - krok wstecz 140 Porcje danych, konwolucje dwuwymiarowe i operacje wielokanałowe 144 Konwolucje dwuwymiarowe 145 Ostatni element - dodawanie kanałów 147 Używanie nowej operacji do uczenia sieci CNN 150 Operacja Flatten 150 Kompletna warstwa Conv2D 151 Eksperymenty 152 6. Rekurencyjne sieci neuronowe 155 Najważniejsze ograniczenie - przetwarzanie odgałęzień 156 Automatyczne różniczkowanie 158 Pisanie kodu do akumulowania gradientów 158 Powody stosowania sieci RNN 162 Wprowadzenie do sieci RNN 163 Pierwsza klasa dla sieci RNN - RNNLayer 164 Druga klasa dla sieci RNN - RNNNode 165 Łączenie obu klas 166 Krok wstecz 167 Sieci RNN - kod 169 Klasa RNNLayer 170 Podstawowe elementy sieci RNNNode 172 Zwykłe węzły RNNNode 173 Ograniczenia zwykłych węzłów RNNNode 175 Pierwsze rozwiązanie - węzły GRUNode 176 Węzły LSTMNode 179 Reprezentacja danych dla opartego na sieci RNN modelu języka naturalnego na poziomie znaków 182 Inne zadania z obszaru modelowania języka naturalnego 182 Łączenie odmian warstw RNNLayer 183 Łączenie wszystkich elementów 184 7. PyTorch 187 Typ Tensor w bibliotece PyTorch 187 Deep learning z użyciem biblioteki PyTorch 188 Elementy z biblioteki PyTorch - klasy reprezentujące model, warstwę, optymalizator i wartość straty 189 Implementowanie elementów sieci neuronowej za pomocą biblioteki PyTorch - warstwa DenseLayer 190 Przykład - modelowanie cen domów w Bostonie z użyciem biblioteki PyTorch 191 Elementy oparte na bibliotece PyTorch - klasy optymalizatora i wartości straty 192 Elementy oparte na bibliotece PyTorch - klasa nauczyciela 193 Sztuczki służące do optymalizowania uczenia w bibliotece PyTorch 195 Sieci CNN w bibliotece PyTorch 196 Klasa DataLoader i transformacje 198 Tworzenie sieci LSTM za pomocą biblioteki PyTorch 200 Postscriptum - uczenie nienadzorowane z użyciem autoenkoderów 202 Uczenie reprezentacji 203 Podejście stosowane w sytuacjach, gdy w ogóle nie ma etykiet 203 Implementowanie autoenkodera za pomocą biblioteki PyTorch 204 Trudniejszy test uczenia nienadzorowanego i rozwiązanie 209 A. Skok na głęboką wodę 211 Reguła łańcuchowa dla macierzy 211 Gradient dla wartości straty względem wyrazu wolnego 215 Konwolucje z użyciem mnożenia macierzy 215
Sygnatura czytelni BWEAiI: XII Ł 175
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149871 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności