Sieci neuronowe (informatyka)
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(17)
Forma i typ
Czasopisma
(10)
Książki
(7)
Publikacje fachowe
(5)
Publikacje dydaktyczne
(3)
Publikacje naukowe
(2)
Dostępność
tylko na miejscu
(7)
dostępne
(2)
Placówka
Wypożyczalnia
(2)
Biblioteka Międzywydziałowa
(1)
Biblioteka WEAiI
(6)
Autor
Sawka Krzysztof
(4)
Géron Aurélien
(2)
Beliczyński Bartłomiej
(1)
Bonaccorso Giuseppe (informatyka)
(1)
Dzieliński Andrzej
(1)
Fierek Filip
(1)
Gerrish Sean
(1)
Kneusel Ronald
(1)
Krajewska-Śpiewak Joanna
(1)
Lefik Marek
(1)
Lewenstein Krzysztof
(1)
Pacut Andrzej
(1)
Siemiątkowska Barbara Janina
(1)
Strumiłło Paweł
(1)
Tran Hoai Linh
(1)
Walczak Tomasz (tłumacz)
(1)
Weidman Seth
(1)
Ślot Krzysztof
(1)
Świderski Andrzej
(1)
Rok wydania
2020 - 2024
(5)
2010 - 2019
(3)
2000 - 2009
(8)
1990 - 1999
(1)
Okres powstania dzieła
2001-
(6)
Kraj wydania
Polska
(17)
Język
polski
(17)
Odbiorca
Programiści
(1)
Temat
Budownictwo
(2412)
Zarządzanie
(2038)
Matematyka
(1930)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1790)
Sieci neuronowe (informatyka)
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1012)
Turystyka
(953)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(932)
Automatyka
(916)
Język angielski
(873)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(761)
Technika
(743)
Konstrukcje budowlane
(727)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Piłka nożna
(690)
Transport
(673)
Elektroenergetyka
(667)
Marketing
(638)
Architektura
(637)
Innowacje
(620)
Naprężenia i odkształcenia
(613)
OZE
(606)
Programowanie (informatyka)
(590)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(567)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Materiałoznawstwo
(517)
Produkcja
(517)
Symulacja
(515)
Inwestycje
(508)
Praca
(503)
Zarządzanie jakością
(497)
Zarządzanie zasobami ludzkimi (HRM)
(496)
Analiza matematyczna
(495)
Dzieci
(489)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(468)
Przedsiębiorstwo
(468)
Szkolnictwo wyższe
(468)
Psychologia
(467)
Modele matematyczne
(465)
Internet
(464)
Metale
(462)
Nauka
(456)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(429)
Mechanika budowli
(425)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(382)
Banki
(379)
BHP
(375)
Rachunkowość zarządcza
(374)
Gatunek
Podręcznik
(6)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(6)
Inżynieria i technika
(2)
17 wyników Filtruj
Brak okładki
Czasopismo
W koszyku
(Prace Naukowe / Politechnika Warszawska. Elektryka, ISSN 0137-2319 ; z. 112 Sygn. P 559/C 36353.)
Opis wg okł.
Bibliogr. s. 73-77.
Książka
W koszyku
Tytuł oryginału: Mastering machine learning algorithms.
Na okładce nazwa wydawcy oryginału: Packt.
Na książce także ISBN oryginału: 9781788621113.
Indeks.
Rozdział 1. Podstawy modelu uczenia maszynowego 19 Modele a dane 20 Środkowanie i wybielanie 21 Zbiory uczące i walidacyjne 24 Cechy modelu uczenia maszynowego 29 Pojemność modelu 29 Obciążenie estymatora 32 Wariancja estymatora 35 Funkcje straty i kosztu 39 Przykładowe funkcje kosztu 43 Regularyzacja 45 Rozdział 2. Wprowadzenie do uczenia półnadzorowanego 51 Uczenie półnadzorowane 52 Uczenie transdukcyjne 53 Uczenie indukcyjne 53 Założenia w uczeniu półnadzorowanym 53 Generatywne mieszaniny gaussowskie 56 Przykład generatywnej mieszaniny gaussowskiej 58 Algorytm kontrastowy pesymistycznego szacowania wiarygodności 63 Przykład zastosowania algorytmu CPLE 65 Półnadzorowane maszyny wektorów nośnych (S3VM) 68 Przykładowy algorytm maszyny S3VM 71 Transdukcyjne maszyny wektorów nośnych 76 Przykład maszyny TSVM 77 Rozdział 3. Uczenie półnadzorowane bazujące na grafach 85 Propagacja etykiet 86 Przykład zastosowania algorytmu propagacji etykiet 89 Propagacja etykiet w bibliotece Scikit-Learn 91 Rozprzestrzenianie etykiet 94 Przykład zastosowania algorytmu rozprzestrzeniania etykiet 95 Propagacja etykiet na bazie błądzenia losowego Markowa 97 Przykład propagacji etykiet na podstawie błądzenia losowego Markowa 98 Uczenie rozmaitościowe 101 Algorytm Isomap 102 Osadzanie lokalnie liniowe 106 Osadzanie widmowe Laplace'a 109 Algorytm t-SNE 111 Rozdział 4. Sieci bayesowskie i ukryte modele Markowa 115 Prawdopodobieństwa warunkowe i twierdzenie Bayesa 116 Sieci bayesowskie 118 Próbkowanie w sieci bayesowskiej 119 Przykład próbkowania za pomocą biblioteki PyMC3 129 Ukryte modele Markowa 133 Algorytm wnioskowania ekstrapolacyjno-interpolacyjnego 134 Algorytm Viterbiego 141 Rozdział 5. Algorytm EM i jego zastosowania 145 Uczenie metodami MLE i MAP 146 Algorytm EM 148 Przykład szacowania parametrów 151 Mieszanina gaussowska 154 Przykład implementacji algorytmu mieszanin gaussowskich w bibliotece Scikit-Learn 157 Analiza czynnikowa (FA) 159 Przykład zastosowania analizy czynnikowej w bibliotece Scikit-Learn 164 Analiza głównych składowych (PCA) 167 Przykład zastosowania analizy PCA w bibliotece Scikit-Learn 173 Analiza składowych niezależnych (ICA) 175 Przykładowa implementacja algorytmu FastICA w bibliotece Scikit-Learn 178 Jeszcze słowo o ukrytych modelach Markowa 180 Rozdział 6. Uczenie hebbowskie i mapy samoorganizujące 183 Reguła Hebba 184 Analiza reguły kowariancji 188 Stabilizacja wektora wag i reguła Oji 192 Sieć Sangera 193 Przykład zastosowania sieci Sangera 196 Sieć Rubnera-Tavana 199 Przykład zastosowania sieci Rubnera-Tavana 203 Mapy samoorganizujące 205 Przykład zastosowania mapy SOM 208 Rozdział 7. Algorytmy klasteryzacji 213 Algorytm k-najbliższych sąsiadów 213 Drzewa KD 217 Drzewa kuliste 218 Przykład zastosowania algorytmu KNN w bibliotece Scikit-Learn 220 Algorytm centroidów 223 Algorytm k-means++ 225 Przykład zastosowania algorytmu centroidów w bibliotece Scikit-Learn 227 Algorytm rozmytych c-średnich 235 Przykład zastosowania algorytmu rozmytych c-średnich w bibliotece Scikit-Fuzzy 239 Klasteryzacja widmowa 242 Przykład zastosowania klasteryzacji widmowej w bibliotece Scikit-Learn 246 Rozdział 8. Uczenie zespołowe 249 Podstawy uczenia zespołów 249 Lasy losowe 251 Przykład zastosowania lasu losowego w bibliotece Scikit-Learn 257 Algorytm AdaBoost 260 AdaBoost.SAMME 264 AdaBoost.SAMME.R 266 AdaBoost.R2 268 Przykład zastosowania algorytmu AdaBoost w bibliotece Scikit-Learn 271 Wzmacnianie gradientowe 275 Przykład wzmacniania gradientowego drzew w bibliotece Scikit-Learn 279 Zespoły klasyfikatorów głosujących 282 Przykład zastosowania klasyfikatorów głosujących 283 Uczenie zespołowe jako technika doboru modeli 285 Rozdział 9. Sieci neuronowe w uczeniu maszynowym 287 Podstawowy sztuczny neuron 288 Perceptron 289 Przykład zastosowania perceptronu w bibliotece Scikit-Learn 292 Perceptrony wielowarstwowe 295 Funkcje aktywacji 296 Algorytm propagacji wstecznej 299 Przykład zastosowania sieci MLP w bibliotece Keras 307 Algorytmy optymalizacji 311 Perturbacja gradientu 312 Algorytmy momentum i Nesterova 312 RMSProp 313 Adam 315 AdaGrad 316 AdaDelta 317 Regularyzacja i porzucanie 318 Porzucanie 320 Normalizacja wsadowa 326 Przykład zastosowania normalizacji wsadowej w bibliotece Keras 328 Rozdział 10. Zaawansowane modele neuronowe 333 Głębokie sieci splotowe 334 Operacje splotu 335 Warstwy łączące 344 Inne przydatne warstwy 347 Przykłady stosowania głębokich sieci splotowych w bibliotece Keras 348 Sieci rekurencyjne 356 Algorytm propagacji wstecznej w czasie (BPTT) 357 Jednostki LSTM 360 Jednostki GRU 365 Przykład zastosowania sieci LSTM w bibliotece Keras 367 Uczenie transferowe 371 Rozdział 11. Autokodery 375 Autokodery 375 Przykład głębokiego autokodera splotowego w bibliotece TensorFlow 377 Autokodery odszumiające 381 Autokodery rzadkie 384 Autokodery wariacyjne 386 Przykład stosowania autokodera wariacyjnego w bibliotece TensorFlow 389 Rozdział 12. Generatywne sieci przeciwstawne 393 Uczenie przeciwstawne 393 Przykład zastosowania sieci DCGAN w bibliotece TensorFlow 397 Sieć Wassersteina (WGAN) 403 Przykład zastosowania sieci WGAN w bibliotece TensorFlow 405 Rozdział 13. Głębokie sieci przekonań 409 Losowe pola Markowa 410 Ograniczone maszyny Boltzmanna 411 Sieci DBN 415 Przykład stosowania nienadzorowanej sieci DBN w środowisku Python 417 Przykład stosowania nadzorowanej sieci DBN w środowisku Python 420 Rozdział 14. Wstęp do uczenia przez wzmacnianie 423 Podstawowe terminy w uczeniu przez wzmacnianie 423 Środowisko 425 Polityka 429 Iteracja polityki 430 Iteracja polityki w środowisku szachownicy 434 Iteracja wartości 438 Iteracja wartości w środowisku szachownicy 439 Algorytm TD(0) 442 Algorytm TD(0) w środowisku szachownicy 445 Rozdział 15. Zaawansowane algorytmy szacowania polityki 451 Algorytm TD(λ) 452 Algorytm TD(λ) w bardziej skomplikowanym środowisku szachownicy 456 Algorytm aktor-krytyk TD(0) w środowisku szachownicy 462 Algorytm SARSA 467 Algorytm SARSA w środowisku szachownicy 469 Q-uczenie 472 Algorytm Q-uczenia w środowisku szachownicy 473 Algorytm Q-uczenia za pomocą sieci neuronowej 475
Sygnatura czytelni BWEAiI: XII Ł 227
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148489 N (1 egz.)
Brak okładki
Czasopismo
W koszyku
(Prace Naukowe / Politechnika Warszawska. Elektryka, ISSN 0137-2319 ; z. 119 Sygn. P 559/C 37735.)
Opis wg okł.
Bibliogr. s. 172-182.
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłumaczenie: Krzysztof Sawka. - Wydanie II, aktualizacja do modułu TensorFlow 2. - Gliwice : Helion, copyright 2020. - 764, [4] strony : ilustracje ; 25 cm.
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO 25 1. Krajobraz uczenia maszynowego 27 Czym jest uczenie maszynowe? 28 Dlaczego warto korzystać z uczenia maszynowego? 28 Przykładowe zastosowania 31 Rodzaje systemów uczenia maszynowego 33 Uczenie nadzorowane i uczenie nienadzorowane 34 Uczenie wsadowe i uczenie przyrostowe 40 Uczenie z przykładów i uczenie z modelu 43 Główne problemy uczenia maszynowego 48 Niedobór danych uczących 50 Niereprezentatywne dane uczące 50 Dane kiepskiej jakości 51 Nieistotne cechy 52 Przetrenowanie danych uczących 52 Niedotrenowanie danych uczących 54 Testowanie i ocenianie 55 Strojenie hiperparametrów i dobór modelu 55 Niezgodność danych 56 2. Nasz pierwszy projekt uczenia maszynowego 59 Praca z rzeczywistymi danymi 59 Przeanalizuj całokształt projektu 61 Określ zakres problemu 61 Wybierz metrykę wydajności 63 Sprawdź założenia 65 Zdobądź dane 65 Stwórz przestrzeń roboczą 66 Pobierz dane 68 Rzut oka na strukturę danych 70 Stwórz zbiór testowy 74 Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje 78 Wizualizowanie danych geograficznych 78 Poszukiwanie korelacji 80 Eksperymentowanie z kombinacjami atrybutów 83 Przygotuj dane pod algorytmy uczenia maszynowego 84 Oczyszczanie danych 84 Obsługa tekstu i atrybutów kategorialnych 87 Niestandardowe transformatory 89 Skalowanie cech 90 Potoki transformujące 90 Wybór i uczenie modelu 92 Trenowanie i ocena modelu za pomocą zbioru uczącego 92 Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego 93 Wyreguluj swój model 96 Metoda przeszukiwania siatki 96 Metoda losowego przeszukiwania 98 Metody zespołowe 98 Analizuj najlepsze modele i ich błędy 98 Oceń system za pomocą zbioru testowego 99 Uruchom, monitoruj i utrzymuj swój system 100 Teraz Twoja kolej! 103 3. Klasyfikacja 105 Zbiór danych MNIST 105 Uczenie klasyfikatora binarnego 107 Miary wydajności 108 Pomiar dokładności za pomocą sprawdzianu krzyżowego 108 Macierz pomyłek 110 Precyzja i pełność 111 Kompromis pomiędzy precyzją a pełnością 112 Wykres krzywej ROC 116 Klasyfikacja wieloklasowa 119 Analiza błędów 121 Klasyfikacja wieloetykietowa 124 Klasyfikacja wielowyjściowa 125 4. Uczenie modeli 129 Regresja liniowa 130 Równanie normalne 131 Złożoność obliczeniowa 134 Gradient prosty 135 Wsadowy gradient prosty 138 Stochastyczny spadek wzdłuż gradientu 141 Schodzenie po gradiencie z minigrupami 143 Regresja wielomianowa 145 Krzywe uczenia 146 Regularyzowane modele liniowe 150 Regresja grzbietowa 150 Regresja metodą LASSO 153 Metoda elastycznej siatki 155 Wczesne zatrzymywanie 156 Regresja logistyczna 157 Szacowanie prawdopodobieństwa 158 Funkcje ucząca i kosztu 159 Granice decyzyjne 160 Regresja softmax 162 5. Maszyny wektorów nośnych 167 Liniowa klasyfikacja SVM 167 Klasyfikacja miękkiego marginesu 168 Nieliniowa klasyfikacja SVM 170 Jądro wielomianowe 171 Cechy podobieństwa 172 Gaussowskie jądro RBF 173 Złożoność obliczeniowa 175 Regresja SVM 175 Mechanizm działania 177 Funkcja decyzyjna i prognozy 177 Cel uczenia 178 Programowanie kwadratowe 180 Problem dualny 181 Kernelizowane maszyny SVM 182 Przyrostowe maszyny SVM 185 6. Drzewa decyzyjne 187 Uczenie i wizualizowanie drzewa decyzyjnego 187 Wyliczanie prognoz 188 Szacowanie prawdopodobieństw przynależności do klas 190 Algorytm uczący CART 191 Złożoność obliczeniowa 192 Wskaźnik Giniego czy entropia? 192 Hiperparametry regularyzacyjne 193 Regresja 194 Niestabilność 196 7. Uczenie zespołowe i losowe lasy 199 Klasyfikatory głosujące 199 Agregacja i wklejanie 202 Agregacja i wklejanie w module Scikit-Learn 203 Ocena OOB 205 Rejony losowe i podprzestrzenie losowe 206 Losowe lasy 206 Zespół Extra-Trees 207 Istotność cech 207 Wzmacnianie 209 AdaBoost 209 Wzmacnianie gradientowe 212 Kontaminacja 217 8. Redukcja wymiarowości 223 Klątwa wymiarowości 224 Główne strategie redukcji wymiarowości 225 Rzutowanie 225 Uczenie rozmaitościowe 227 Analiza PCA 228 Zachowanie wariancji 229 Główne składowe 230 Rzutowanie na d wymiarów 231 Implementacja w module Scikit-Learn 232 Współczynnik wariancji wyjaśnionej 232 Wybór właściwej liczby wymiarów 232 Algorytm PCA w zastosowaniach kompresji 233 Losowa analiza PCA 234 Przyrostowa analiza PCA 235 Jądrowa analiza PCA 236 Wybór jądra i strojenie hiperparametrów 236 Algorytm LLE 239 Inne techniki redukowania wymiarowości 241 9. Techniki uczenia nienadzorowanego 243 Analiza skupień 244 Algorytm centroidów 246 Granice algorytmu centroidów 255 Analiza skupień w segmentacji obrazu 256 Analiza skupień w przetwarzaniu wstępnym 257 Analiza skupień w uczeniu półnadzorowanym 259 Algorytm DBSCAN 262 Inne algorytmy analizy skupień 265 Mieszaniny gaussowskie 266 Wykrywanie anomalii za pomocą mieszanin gaussowskich 271 Wyznaczanie liczby skupień 273 Modele bayesowskie mieszanin gaussowskich 275 Inne algorytmy służące do wykrywania anomalii i nowości 279 CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE 283 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras 285 Od biologicznych do sztucznych neuronów 286 Neurony biologiczne 287 Operacje logiczne przy użyciu neuronów 288 Perceptron 289 Perceptron wielowarstwowy i propagacja wsteczna 293 Regresyjne perceptrony wielowarstwowe 297 Klasyfikacyjne perceptrony wielowarstwowe 298 Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras 300 Instalacja modułu TensorFlow 2 301 Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego 302 Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego 311 Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego 312 Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego 316 Zapisywanie i odczytywanie modelu 318 Stosowanie wywołań zwrotnych 318 Wizualizacja danych za pomocą narzędzia TensorBoard 320 Dostrajanie hiperparametrów sieci neuronowej 323 Liczba warstw ukrytych 326 Liczba neuronów w poszczególnych warstwach ukrytych 327 Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry 328 11. Uczenie głębokich sieci neuronowych 333 Problemy zanikających/eksplodujących gradientów 334 Inicjalizacje wag Glorota i He 334 Nienasycające funkcje aktywacji 336 Normalizacja wsadowa 340 Obcinanie gradientu 346 Wielokrotne stosowanie gotowych warstw 347 Uczenie transferowe w interfejsie Keras 348 Nienadzorowane uczenie wstępne 350 Uczenie wstępne za pomocą dodatkowego zadania 350 Szybsze optymalizatory 352 Optymalizacja momentum 352 Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) 353 AdaGrad 355 RMSProp 356 Optymalizatory Adam i Nadam 357 Harmonogramowanie współczynnika uczenia 359 Regularyzacja jako sposób zapobiegania przetrenowaniu 364 Regularyzacja l1 i l2 364 Porzucanie 365 Regularyzacja typu Monte Carlo (MC) 368 Regularyzacja typu max-norm 370 Podsumowanie i praktyczne wskazówki 371 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow 375 Krótkie omówienie modułu TensorFlow 375 Korzystanie z modułu TensorFlow jak z biblioteki NumPy 379 Tensory i operacje 379 Tensory a biblioteka NumPy 381 Konwersje typów 381 Zmienne 381 Inne struktury danych 382 Dostosowywanie modeli i algorytmów uczenia 383 Niestandardowe funkcje straty 383 Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe 384 Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia 386 Niestandardowe wskaźniki 387 Niestandardowe warstwy 389 Niestandardowe modele 392 Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu 394 Obliczanie gradientów za pomocą różniczkowania automatycznego 396 Niestandardowe pętle uczenia 399 Funkcje i grafy modułu TensorFlow 402 AutoGraph i kreślenie 404 Reguły związane z funkcją TF 405 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow 409 Interfejs danych 410 Łączenie przekształceń 410 Tasowanie danych 412 Wstępne przetwarzanie danych 415 Składanie wszystkiego w całość 416 Pobieranie wstępne 417 Stosowanie zestawu danych z interfejsem tf.keras 418 Format TFRecord 419 Skompresowane pliki TFRecord 420 Wprowadzenie do buforów protokołów 420 Bufory protokołów w module TensorFlow 422 Wczytywanie i analizowanie składni obiektów Example 423 Obsługa list list za pomocą bufora protokołów SequenceExample 424 Wstępne przetwarzanie cech wejściowych 425 Kodowanie cech kategorialnych za pomocą wektorów gorącojedynkowych 426 Kodowanie cech kategorialnych za pomocą wektorów właściwościowych 428 Warstwy przetwarzania wstępnego w interfejsie Keras 431 TF Transform 433 Projekt TensorFlow Datasets (TFDS) 435 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych 439 Struktura kory wzrokowej 440 Warstwy splotowe 441 Filtry 443 Stosy map cech 444 Implementacja w module TensorFlow 446 Zużycie pamięci operacyjnej 448 Warstwa łącząca 449 Implementacja w module TensorFlow 451 Architektury splotowych sieci neuronowych 452 LeNet-5 454 AlexNet 455 GoogLeNet 458 VGGNet 461 ResNet 461 Xception 465 SENet 466 Implementacja sieci ResNet-34 za pomocą interfejsu Keras 468 Korzystanie z gotowych modeli w interfejsie Keras 469 Gotowe modele w uczeniu transferowym 471 Klasyfikowanie i lokalizowanie 473 Wykrywanie obiektów 474 W pełni połączone sieci splotowe 476 Sieć YOLO 478 Segmentacja semantyczna 481 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych 487 Neurony i warstwy rekurencyjne 488 Komórki pamięci 490 Sekwencje wejść i wyjść 491 Uczenie sieci rekurencyjnych 492 Prognozowanie szeregów czasowych 493 Wskaźniki bazowe 494 Implementacja prostej sieci rekurencyjnej 494 Głębokie sieci rekurencyjne 496 Prognozowanie kilka taktów w przód 497 Obsługa długich sekwencji 500 Zwalczanie problemu niestabilnych gradientów 501 Zwalczanie problemu pamięci krótkotrwałej 503 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi 513 Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej 514 Tworzenie zestawu danych uczących 515 Rozdzielanie zestawu danych sekwencyjnych 515 Dzielenie zestawu danych sekwencyjnych na wiele ramek 516 Budowanie i uczenie modelu Char-RNN 518 Korzystanie z modelu Char-RNN 519 Generowanie sztucznego tekstu szekspirowskiego 519 Stanowe sieci rekurencyjne 520 Analiza sentymentów 522 Maskowanie 526 Korzystanie z gotowych reprezentacji właściwościowych 527 Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego 529 Dwukierunkowe warstwy rekurencyjne 532 Przeszukiwanie wiązkowe 533 Mechanizmy uwagi 534 Mechanizm uwagi wizualnej 537 Liczy się tylko uwaga, czyli architektura transformatora 539 Współczesne innowacje w modelach językowych 546 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych 551 Efektywne reprezentacje danych 552 Analiza PCA za pomocą niedopełnionego autokodera liniowego 554 Autokodery stosowe 555 Implementacja autokodera stosowego za pomocą interfejsu Keras 556 Wizualizowanie rekonstrukcji 557 Wizualizowanie zestawu danych Fashion MNIST 558 Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych 558 Wiązanie wag 560 Uczenie autokoderów pojedynczo 561 Autokodery splotowe 562 Autokodery rekurencyjne 563 Autokodery odszumiające 564 Autokodery rzadkie 566 Autokodery wariacyjne 569 Generowanie obrazów Fashion MNIST 572 Generatywne sieci przeciwstawne 574 Problemy związane z uczeniem sieci GAN 577 Głębokie splotowe sieci GAN 579 Rozrost progresywny sieci GAN 582 Sieci StyleGAN 585 18. Uczenie przez wzmacnianie 589 Uczenie się optymalizowania nagród 590 Wyszukiwanie strategii 591 Wprowadzenie do narzędzia OpenAI Gym 593 Sieci neuronowe jako strategie 597 Ocenianie czynności: problem przypisania zasługi 598 Gradienty strategii 600 Procesy decyzyjne Markowa 604 Uczenie metodą różnic czasowych 607 Q-uczenie 609 Strategie poszukiwania 610 Przybliżający algorytm Q-uczenia i Q-uczenie głębokie 611 Implementacja modelu Q-uczenia głębokiego 612 Odmiany Q-uczenia głębokiego 616 Ustalone Q-wartości docelowe 616 Podwójna sieć DQN 617 Odtwarzanie priorytetowych doświadczeń 618 Walcząca sieć DQN 618 Biblioteka TF-Agents 619 Instalacja biblioteki TF-Agents 620 Środowiska TF-Agents 620 Specyfikacja środowiska 621 Funkcje opakowujące środowisko i wstępne przetwarzanie środowiska Atari 622 Architektura ucząca 625 Tworzenie Q-sieci głębokiej 627 Tworzenie agenta DQN 629 Tworzenie bufora odtwarzania i związanego z nim obserwatora 630 Tworzenie wskaźników procesu uczenia 631 Tworzenie sterownika 632 Tworzenie zestawu danych 633 Tworzenie pętli uczenia 636 Przegląd popularnych algorytmów RN 637 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow 641 Eksploatacja modelu TensorFlow 642 Korzystanie z systemu TensorFlow Serving 642 Tworzenie usługi predykcyjnej na platformie GCP AI 650 Korzystanie z usługi prognozowania 655 Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym 658 Przyspieszanie obliczeń za pomocą procesorów graficznych 661 Zakup własnej karty graficznej 662 Korzystanie z maszyny wirtualnej wyposażonej w procesor graficzny 664 Colaboratory 665 Zarządzanie pamięcią operacyjną karty graficznej 666 Umieszczanie operacji i zmiennych na urządzeniach 669 Przetwarzanie równoległe na wielu urządzeniach 671 Uczenie modeli za pomocą wielu urządzeń 673 Zrównoleglanie modelu 673 Zrównoleglanie danych 675 Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania 680 Uczenie modelu za pomocą klastra TensorFlow 681 Realizowanie dużych grup zadań uczenia za pomocą usługi Google Cloud AI Platform 684 Penetracyjne strojenie hiperparametrów w usłudze AI Platform 686 A. Rozwiązania ćwiczeń 691 B. Lista kontrolna projektu uczenia maszynowego 725 C. Problem dualny w maszynach wektorów nośnych 731 D. Różniczkowanie automatyczne 735 E. Inne popularne architektury sieci neuronowych 743 F. Specjalne struktury danych 751 G. Grafy TensorFlow 757
Sygnatura czytelni BWEAiI: XII Ł 177
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149873 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Indeks.
Fenomen uczenia maszynowego Uczenie maszynowe w Twoich projektach Cel i sposób jego osiągnięcia Wymogi wstępne Zawartość książki Dodatkowe zasoby Konwencje stosowane w książce Korzystanie z kodu źródłowego Część I Podstawy uczenia maszynowego Rozdział 1. Krajobraz uczenia maszynowego Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Rodzaje systemów uczenia maszynowego Uczenie nadzorowane/nienadzorowane Uczenie nadzorowane Uczenie nienadzorowane Uczenie półnadzorowane Uczenie przez wzmacnianie Uczenie wsadowe/przyrostowe Uczenie wsadowe Uczenie przyrostowe Uczenie z przykładów/z modelu Uczenie z przykładów Uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz metrykę wydajności Sprawdź założenia Zdobądź dane Stwórz przestrzeń roboczą Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Wizualizowanie danych geograficznych Poszukiwanie korelacji Eksperymentowanie z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyszczanie danych Obsługa tekstu i atrybutów kategorialnych Niestandardowe transformatory Skalowanie cech Potoki transformujące Wybór i uczenie modelu Trenowanie i ocena modelu za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizuj najlepsze modele i ich błędy Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Teraz Twoja kolej! Rozdział 3. Klasyfikacja Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa Rozdział 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Metoda elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax Rozdział 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Dodawanie cech podobieństwa Gaussowskie jądro RBF Złożoność obliczeniowa Regresja SVM Mechanizm działania Funkcja decyzyjna i prognozy Cel uczenia Programowanie kwadratowe Problem dualny Kernelizowane maszyny SVM Przyrostowe maszyny SVM Rozdział 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Niestabilność Rozdział 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Kontaminacja Rozdział 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Główne składowe Rzutowanie na d wymiarów Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Przyrostowa analiza PCA Losowa analiza PCA Jądrowa analiza PCA Wybór jądra i strojenie hiperparametrów Algorytm LLE Inne techniki redukowania wymiarowości Część II Sieci neuronowe i uczenie głębokie Rozdział 9. Instalacja i używanie modułu TensorFlow Instalacja Tworzenie pierwszego grafu i uruchamianie go w sesji Zarządzanie grafami Cykl życia wartości w węźle Regresja liniowa przy użyciu modułu TensorFlow Implementacja metody gradientu prostego Ręczne obliczanie gradientów Automatyczne różniczkowanie Korzystanie z optymalizatora Dostarczanie danych algorytmowi uczącemu Zapisywanie i wczytywanie modeli Wizualizowanie grafu i krzywych uczenia za pomocą modułu TensorBoard Zakresy nazw Modułowość Udostępnianie zmiennych Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Uczenie sieci MLP za pomocą zaawansowanego interfejsu API modułu TensorFlow Uczenie głębokiej sieci neuronowej za pomocą standardowego interfejsu TensorFlow Faza konstrukcyjna Faza wykonawcza Korzystanie z sieci neuronowej Strojenie hiperparametrów sieci neuronowej Liczba ukrytych warstw Liczba neuronów tworzących warstwę ukrytą Funkcje aktywacji Rozdział 11. Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjacje wag Xaviera i He Nienasycające funkcje aktywacji Normalizacja wsadowa Implementacja normalizacji wsadowej za pomocą modułu TensorFlow Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Wielokrotne stosowanie modelu TensorFlow Wykorzystywanie modeli utworzonych w innych środowiskach Zamrażanie niższych warstw Zapamiętywanie warstw ukrytych Modyfikowanie, usuwanie lub zastępowanie górnych warstw Repozytoria modeli Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyśpieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizacja Adam Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób unikania przetrenowania Wczesne zatrzymywanie Regularyzacja 1 i 2 Porzucanie Regularyzacja typu max-norm Dogenerowanie danych Praktyczne wskazówki Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Wiele urządzeń na jednym komputerze Instalacja Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji na urządzeniach Proste rozmieszczanie Zapisywanie zdarzeń rozmieszczania Funkcja dynamicznego rozmieszczania Operacje i jądra Miękkie rozmieszczanie Przetwarzanie równoległe Zależności sterujące Wiele urządzeń na wielu serwerach Otwieranie sesji Usługi nadrzędna i robocza Przypinanie operacji w wielu zadaniach Rozdzielanie zmiennych pomiędzy wiele serwerów parametrów Udostępnianie stanu rozproszonych sesji za pomocą kontenerów zasobów Komunikacja asynchroniczna za pomocą kolejek Umieszczanie danych w kolejce Usuwanie danych z kolejki Kolejki krotek Zamykanie kolejki RandomShuffleQueue PaddingFIFOQueue Wczytywanie danych bezpośrednio z grafu Wstępne wczytanie danych do zmiennej Wczytywanie danych uczących bezpośrednio z grafu Czytniki wieloklasowe wykorzystujące klasy Coordinator i QueueRunner Inne funkcje pomocnicze Przetwarzanie równoległe sieci neuronowych w klastrze TensorFlow Jedna sieć neuronowa na każde urządzenie Replikacja wewnątrzgrafowa i międzygrafowa Zrównoleglanie modelu Zrównoleglanie danych Aktualizacje synchroniczne Aktualizacje asynchroniczne Nasycenie przepustowości Implementacja w module TensorFlow Rozdział 13. Splotowe sieci neuronowe Architektura kory wzrokowej Warstwa splotowa Filtry Stosy map cech Implementacja w module TensorFlow Zużycie pamięci operacyjnej Warstwa łącząca Architektury splotowych sieci neuronowych LeNet-5 AlexNet GoogLeNet ResNet Rozdział 14. Rekurencyjne sieci neuronowe Neurony rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Podstawowe sieci RSN w module TensorFlow Statyczne rozwijanie w czasie Dynamiczne rozwijanie w czasie Obsługa sekwencji wejściowych o zmiennej długości Obsługa sekwencji wyjściowych o zmiennej długości Uczenie rekurencyjnych sieci neuronowych Uczenie klasyfikatora sekwencji Uczenie w celu przewidywania szeregów czasowych Twórcza sieć rekurencyjna Głębokie sieci rekurencyjne Rozmieszczanie głębokiej sieci rekurencyjnej pomiędzy wiele kart graficznych Wprowadzanie metody porzucania Problem uczenia w sieciach wielotaktowych Komórka LSTM Połączenia przezierne Komórka GRU Przetwarzanie języka naturalnego Reprezentacje wektorowe słów Sieć typu koder-dekoder służąca do tłumaczenia maszynowego Rozdział 15. Autokodery Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja w module TensorFlow Wiązanie wag Uczenie autokoderów pojedynczo Wizualizacja rekonstrukcji Wizualizowanie cech Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Autokodery odszumiające Implementacja w module TensorFlow Autokodery rzadkie Implementacja w module TensorFlow Autokodery wariacyjne Generowanie cyfr Inne autokodery Rozdział 16. Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie polityki Wprowadzenie do narzędzia OpenAI gym Sieci neuronowe jako polityki Ocenianie czynności problem przypisania zasługi Gradienty polityk Procesy decyzyjne Markowa Uczenie metodą różnic czasowych i algorytm Q-uczenia Polityki poszukiwania Przybliżający algorytm Q-uczenia Nauka gry w Ms. Pac-Man za pomocą głębokiego Q-uczenia Rozdział 1. Krajobraz uczenia maszynowego Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Rozdział 3. Klasyfikacja Rozdział 4. Uczenie modeli Rozdział 5. Maszyny wektorów nośnych Rozdział 6. Drzewa decyzyjne Rozdział 7. Uczenie zespołowe i losowe lasy Rozdział 8. Redukcja wymiarowości Rozdział 9. Instalacja i używanie modułu TensorFlow Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Rozdział 11. Uczenie głębokich sieci neuronowych Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Rozdział 13. Splotowe sieci neuronowe Rozdział 14. Rekurencyjne sieci neuronowe Rozdział 15. Autokodery Rozdział 16. Uczenie przez wzmacnianie Dodatek B Lista kontrolna projektu uczenia maszynowego Określenie problemu i przeanalizowanie go w szerszej perspektywie Pozyskanie danych Analiza danych Przygotowanie danych Stworzenie krótkiej listy obiecujących modeli Dostrojenie modelu Zaprezentowanie rozwiązania Dodatek C Problem dualny w maszynach wektorów nośnych Dodatek D Różniczkowanie automatyczne Różniczkowanie ręczne Różniczkowanie symboliczne Różniczkowanie numeryczne Różniczkowanie automatyczne Odwrotne różniczkowanie automatyczne Dodatek E Inne popularne architektury sieci neuronowych Sieci Hopfielda Maszyny Boltzmanna Ograniczone maszyny Boltzmanna Głębokie sieci przekonań Mapy samoorganizujące
Sygnatura czytelni BWEAiI: XII Ł 101
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146326 N (1 egz.)
Książka
W koszyku
Jak myślą inteligentne maszyny / Sean Gerrish ; [przekład Filip Fierek]. - Wydanie 1. - Warszawa : Wydawnictwo Naukowe PWN, 2020. - XII, 290 stron : ilustracje ; 24 cm.
Indeks.
Sekret automatu Samochody autonomiczne i Grand DARPA Challenge Utrzymać się na drodze. Percepcja samochodów autonomicznych Ustępowanie pierwszeństwa na skrzyżowaniach. Mózg samochodu autonomicznego Netflix i konkurs na najlepszy algorytm rekomendacji Zjednoczone zespoły: zwycięzcy Nagrody Netfliksa Jak uczyć komputery karmiąc je smakołykami Jak zwyciężać w grach Atari dzięki sieciom neuronowym Jak sztuczne sieci neuronowe widzą świat Zaglądając pod maskę głębokich sieci neuronowych I4I Sieci neuronowe, które słyszą mówią i pamiętają Rozumienie języka naturalnego (i pytań w grze Jeopardy, Wydobywanie najlepszej odpowiedzi w grze Jeopardy! Dobra strategia wyszukaną metodą siłową Partia w go na poziomie eksperckim. Sztuczna inteligencja czasu rzeczywistego i StarCraft Pięćdziesiąt (lub więcej) lat później
Sygnatura czytelni BMW: XII C 20 (nowy)
Sygnatura czytelni BWEAiI: XII Ą 103
Ta pozycja znajduje się w zbiorach 3 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 149251 (1 egz.)
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. M 14951 N (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149249 N (1 egz.)
Książka
W koszyku
Deep learning : praktyczne wprowadzenie z zastosowaniem środowiska Pythona / Ron Kneusel ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 472 strony : fotografie, ilustracje, wykresy ; 23 cm.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: No starch press.
Indeks.
Środowisko operacyjne NumPy scikit-learn Keras i TensorFlow Instalacja narzędzi Podstawy algebry liniowej Wektory Macierze Mnożenie wektorów i macierzy Statystyka i prawdopodobieństwo Statystyka opisowa Rozkłady prawdopodobieństwa Testy statystyczne Procesory graficzne (GPU) 2. Korzystanie z Pythona Interpreter Pythona Instrukcje i białe znaki Zmienne i podstawowe struktury danych Przedstawianie liczb Zmienne Łańcuchy znaków Listy Słowniki Struktury sterowania Instrukcje if-elif-else Pętle for Pętle while Instrukcje break i continue Instrukcja with Obsługa błędów za pomocą bloków try-except Funkcje Moduły 3. Biblioteka NumPy Dlaczego NumPy? Tablice a listy Testowanie szybkości tablic i list Definiowanie tablicy za pomocą funkcji, np. array Definiowanie tablic wypełnionych zerami i jedynkami Dostęp do elementów tablicy Indeksowanie tablicowe Uzyskiwanie wycinków tablicy Wielokropek Operatory i rozgłaszanie Dane wejściowe i wyjściowe tablic Liczby losowe Biblioteka NumPy i obrazy 4. Praca z danymi Klasy i etykiety Cechy i wektory cech Dobór cech i klątwa wymiarowości Własności dobrego zestawu danych Interpolacja i ekstrapolacja Główny rozkład prawdopodobieństwa Rozkład a priori Przykłady mylące Rozmiar zestawu danych Przygotowanie danych Skalowanie cech Brakujące cechy Dane uczące, walidacyjne i testowe Trzy podzbiory Dzielenie zestawu danych k-krotny sprawdzian krzyżowy Analiza danych Wyszukiwanie problemów z danymi 5. Budowanie zestawów danych Kosaćce (zestaw danych Iris) Nowotwory piersi (zestaw danych Breast Cancer) Cyfry zapisane pismem odręcznym (zestaw danych MNIST) Różne obrazy (zestaw danych CIFAR-10) Rozszerzanie danych Dlaczego należy rozszerzać dane uczące? Sposoby rozszerzania danych Rozszerzanie zestawu danych Iris Rozszerzanie zestawu danych CIFAR-10 6. Klasyczne uczenie maszynowe Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne i lasy losowe Rekurencja Budowanie drzew decyzyjnych Lasy losowe Maszyny wektorów nośnych Marginesy Wektory nośne Optymalizacja Jądra 7. Eksperymentowanie z klasycznymi modelami Eksperymenty z użyciem zestawu danych Iris Testowanie klasycznych modeli Implementacja klasyfikatora najbliższego centroidu Eksperymenty z użyciem zestawu danych Breast Cancer Dwa pierwsze przebiegi testowe Skutek losowych podziałów Dodawanie k-krotnego sprawdzianu krzyżowego Poszukiwanie hiperparametrów Eksperymenty z użyciem zestawu danych MNIST Testowanie klasycznych modeli Analiza czasu działania Eksperymenty z głównymi składowymi analizy PCA Tasowanie zestawu danych Podsumowanie klasycznych modeli Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Lasy losowe Maszyny wektorów nośnych Kiedy używać klasycznych modeli? Korzystanie z małych zestawów danych Ograniczone zasoby obliczeniowe Dostęp do wyjaśnialnych modeli Praca z danymi wektorowymi 8. Wprowadzenie do sieci neuronowych Anatomia sieci neuronowej Neuron Funkcje aktywacji Architektura sieci Warstwy wyjściowe Wagi i obciążenia Implementacja prostej sieci neuronowej Przygotowanie zestawu danych Implementacja sieci neuronowej Uczenie i testowanie sieci neuronowej 9. Uczenie sieci neuronowej Algorytm gradientu prostego Wyszukiwanie minimów Aktualizowanie wag Stochastyczny spadek wzdłuż gradientu Grupy i minigrupy Funkcje wypukłe i niewypukłe Kończenie uczenia Aktualizowanie współczynnika uczenia Momentum Propagacja wsteczna Propagacja wsteczna - ujęcie pierwsze Propagacja wsteczna - ujęcie drugie Funkcje straty Błąd bezwzględny i błąd średniokwadratowy Entropia krzyżowa Inicjalizowanie wag Przetrenowanie i regularyzacja Przetrenowanie Regularyzacja Regularyzacja L2 Porzucanie 10. Eksperymentowanie z sieciami neuronowymi Nasz zestaw danych Klasa MLPClassifier Struktura sieci i funkcje aktywacji Kod Rozmiar grupy Podstawowy współczynnik uczenia Rozmiar zbioru uczącego Regularyzacja L2 Momentum Inicjalizacja wag Kolejność cech Ocenianie modeli Dlaczego dokładność jest niewystarczająca? Macierz pomyłek 2×2 Wskaźniki wyprowadzane z macierzy pomyłek Wyprowadzanie wskaźników na podstawie macierzy pomyłek Interpretowanie modeli za pomocą wskaźników Zaawansowane wskaźniki Informatywność i nacechowanie Wskaźnik F1 Współczynnik kappa Cohena Współczynnik korelacji Matthewsa Implementacja zaawansowanych wskaźników Krzywa charakterystyki operacyjnej odbiornika Dobór modeli Rysowanie wykresu wskaźników Analiza krzywej ROC Porównywanie modeli za pomocą analizy ROC Generowanie krzywej ROC Krzywa precyzji-czułości Przypadki wieloklasowe Rozszerzanie macierzy pomyłek Obliczanie dokładności ważonej Wieloklasowy współczynnik korelacji Matthewsa Wprowadzenie do splotowych sieci neuronowych Dlaczego splotowe sieci neuronowe? Splot Skanowanie za pomocą jądra Splot w przetwarzaniu obrazów Anatomia splotowej sieci neuronowej Różne typy warstw Przepuszczanie danych przez sieć splotową Warstwy splotowe Mechanizm działania warstwy splotowej Korzystanie z warstwy splotowej Wielokrotne warstwy splotowe Inicjalizacja warstwy splotowej Warstwy łączące Warstwy w pełni połączone Pełne warstwy splotowe Eksperymentowanie z biblioteką Keras i zestawem danych MNIST Budowanie sieci splotowych w bibliotece Keras Wczytywanie danych MNIST Budowanie modelu Uczenie i ocena modelu Tworzenie wykresu funkcji błędu Podstawowe eksperymenty Eksperymenty na architekturze Rozmiar zbioru uczącego, minigrup oraz liczba epok Optymalizatory Pełne sieci splotowe Budowa i trenowanie modelu Przygotowanie obrazów testowych Testowanie modelu Potasowane cyfry MNIST Eksperymentowanie z zestawem danych CIFAR-10 Zestaw CIFAR-10 - przypomnienie Praca na pełnym zestawie CIFAR-10 Budowanie modeli Analizowanie modeli Zwierzę czy pojazd? Model binarny czy wieloklasowy? Uczenie transferowe Strojenie modelu Przygotowanie zestawów danych Dostosowanie modelu do strojenia Testowanie modelu Studium przypadku: klasyfikowanie próbek dźwiękowych Budowanie zestawu danych Rozszerzanie zestawu danych Wstępne przetwarzanie danych Klasyfikowanie cech dźwiękowych Modele klasyczne Tradycyjna sieć neuronowa Splotowa sieć neuronowa Spektrogramy Klasyfikowanie spektrogramów Inicjalizacja, regularyzacja i normalizacja wsadowa Analiza macierzy pomyłek
Sygnatura czytelni BWEAiI: XII Ł 215
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153005 (1 egz.)
Brak okładki
Książka
W koszyku
Bibliografia na stronach 124-[126].
Dla studentów studiów technicznych i ekonomicznych oraz menadżerów przedsiebiorstw.
1. Wprowadzenie i podstawowe operacje na danych 7 1.1. Praca z danymi 8 1.2. Rozkłady prawdopodobieństwa 11 1.3. Testowanie hipotez 14 1.3.1. Test t dla pojedynczej próby 15 1.3.2. Test t dla dwóch niezależnych prób 17 1.4. Analiza danych - operacje na danych 20 1.5. Wstępne przetwarzanie danych 22 1.6. Redukcja danych i dane odstające 25 1.7. Eksploracja danych 40 2. Wyznaczanie transformaty Fouriera - przykład 1 42 2.1. Analiza sygnałów 42 2.2. Transformata Fouriera 46 2.3. Przykład - analiza sygnału w arkuszu Excel 48 3. Wykorzystanie sztucznych sieci neuronowych - przykład 2 59 3.1. Etap czyszczenia danych 59 3.2. Dane dla sieci klasyfikacyjnej 64 3.3. Sieci neuronowe - wprowadzenie 66 3.4. Zbiór uczący, walidacyjny i testowy 71 3.4.1. Funkcja aktywacji 72 3.4.2. Funkcja błędu 73 3.5. Przykład sieci klasyfikacyjnej 74 3.5.1. Wykres zysku (gain chart) 79 3.5.2. Wykres ROC 80 3.6. Przykład sieci regresyjnej 83 4. Tworzenie dashboardów - przykład 3 87 4.1. Wizualizacja danych 87 4.2. Wskaźniki efektywności 92 4.3. Dashboard w arkuszu Excel 104
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 152873 N (1 egz.)
Brak okładki
Czasopismo
W koszyku
(Zeszyty Naukowe / Politechnika Łódzka. Rozprawy Naukowe, ISSN 0137-4834 ; z. 341 Sygn. P 1035/C 39452.)
Nr serii gł.: 953.
Bibliogr. s. [232]-252.
Brak okładki
Czasopismo
W koszyku
(Prace Naukowe / Politechnika Warszawska. Elektronika, ISSN 0137-2343 ; z. 140 Sygn. P 645/C 37908.)
Opis wg okł.
Bibliogr. s. 142-155.
Brak okładki
Czasopismo
W koszyku
(Prace Naukowe / Politechnika Warszawska. Elektronika, ISSN 0137-2343 ; z. 125 Sygn. P 645/C 36352.)
Opis wg okł.
Bibliogr. s. 142-149.
Brak okładki
Czasopismo
W koszyku
(Prace Naukowe / Politechnika Warszawska. Mechanika, ISSN 0137-2335 ; z. 227 Sygn. R 325/C 8819.)
Opis wg okł.
Bibliogr. s. 127-141.
Brak okładki
Czasopismo
W koszyku
(Zeszyty Naukowe / Politechnika Łódzka. Rozprawy Naukowe, ISSN 0137-4834 ; z. 309 Sygn. P 1035/C 37872.)
Nr serii gł.: 906.
Bibliogr. s. 141-151.
Brak okładki
Czasopismo
W koszyku
(Zeszyty Naukowe / Politechnika Łódzka. Rozprawy Naukowe, ISSN 0137-4834 ; z. 257 Sygn. P 1035/C 35939.)
Nr serii gł.: 819.
Bibliogr. s. 188-197.
Brak okładki
Czasopismo
W koszyku
(Prace Naukowe / Politechnika Warszawska. Transport, ISSN 1230-9265 ; z. 81 Sygn. R 144/C 9409.)
Opis wg okł.
Bibliogr. s. 148-159.
Brak okładki
Czasopismo
W koszyku
(Prace Naukowe / Politechnika Warszawska. Elektryka, ISSN 0137-2319 ; z. 130 Sygn. P 559/C 39036)
Opis wg okł.
Bibliogr. s. 91-97.
Książka
W koszyku
Tytuł oryginału: Deep learning from scratch : building with Python from first principles.
Na okładce i stronie tytułowej nazwa wydawcy oryginału: O'Reilly.
1. Podstawowe zagadnienia 15 Funkcje 16 Matematyka 16 Diagramy 16 Kod 17 Pochodne 20 Matematyka 20 Diagramy 20 Kod 21 Funkcje zagnieżdżone 22 Diagram 22 Matematyka 22 Kod 23 Inny diagram 23 Reguła łańcuchowa 24 Matematyka 24 Diagram 24 Kod 25 Nieco dłuższy przykład 27 Matematyka 27 Diagram 27 Kod 28 Funkcje z wieloma danymi wejściowymi 29 Matematyka 30 Diagram 30 Kod 30 Pochodne funkcji z wieloma danymi wejściowymi 31 Diagram 31 Matematyka 31 Kod 32 Funkcje przyjmujące wiele wektorów jako dane wejściowe 32 Matematyka 33 Tworzenie nowych cech na podstawie istniejących 33 Matematyka 33 Diagram 33 Kod 34 Pochodne funkcji z wieloma wektorami wejściowymi 35 Diagram 35 Matematyka 36 Kod 36 Następny etap - funkcje wektorowe i ich pochodne 37 Diagram 37 Matematyka 37 Kod 38 Funkcje wektorowe i ich pochodne w kroku wstecz 38 Grafy obliczeniowe z danymi wejściowymi w postaci dwóch macierzy dwuwymiarowych 40 Matematyka 41 Diagram 43 Kod 43 Ciekawa część - krok wstecz 43 Diagram 44 Matematyka 44 Kod 46 2. Wprowadzenie do budowania modeli 51 Wstęp do uczenia nadzorowanego 52 Modele uczenia nadzorowanego 53 Regresja liniowa 55 Regresja liniowa - diagram 55 Regresja liniowa - bardziej pomocny diagram (i obliczenia matematyczne) 57 Dodawanie wyrazu wolnego 58 Regresja liniowa - kod 58 Uczenie modelu 59 Obliczanie gradientów - diagram 59 Obliczanie gradientów - matematyka (i trochę kodu) 60 Obliczanie gradientów - (kompletny) kod 61 Używanie gradientów do uczenia modelu 62 Ocena modelu - testowe i treningowe zbiory danych 63 Ocena modelu - kod 63 Analizowanie najważniejszej cechy 65 Budowanie sieci neuronowych od podstaw 66 Krok 1. Zestaw regresji liniowych 67 Krok 2. Funkcja nieliniowa 67 Krok 3. Inna regresja liniowa 68 Diagramy 68 Kod 70 Sieci neuronowe - krok wstecz 71 Uczenie i ocena pierwszej sieci neuronowej 73 Dwa powody, dla których nowy model jest lepszy 74 3. Deep learning od podstaw 77 Definicja procesu deep learning - pierwszy krok 77 Elementy sieci neuronowych - operacje 79 Diagram 79 Kod 80 Elementy sieci neuronowych - warstwy 82 Diagramy 82 Elementy z elementów 84 Wzorzec warstwy 86 Warstwa gęsta 88 Klasa NeuralNetwork (i ewentualnie inne) 89 Diagram 89 Kod 90 Klasa Loss 90 Deep learning od podstaw 92 Implementowanie treningu na porcjach danych 92 Klasa NeuralNetwork - kod 93 Nauczyciel i optymalizator 95 Optymalizator 95 Nauczyciel 97 Łączenie wszystkich elementów 98 Pierwszy model z dziedziny deep learning (napisany od podstaw) 99 4. Rozszerzenia 101 Intuicyjne rozważania na temat sieci neuronowych 102 Funkcja straty - funkcja softmax z entropią krzyżową 104 Komponent nr 1. Funkcja softmax 104 Komponent nr 2. Entropia krzyżowa 105 Uwaga na temat funkcji aktywacji 108 Eksperymenty 111 Wstępne przetwarzanie danych 111 Model 112 Eksperyment: wartość straty z użyciem funkcji softmax z entropią krzyżową 113 Współczynnik momentum 113 Intuicyjny opis współczynnika momentum 114 Implementowanie współczynnika momentum w klasie Optimizer 114 Eksperyment - algorytm SGD ze współczynnikiem momentum 116 Zmniejszanie współczynnika uczenia 116 Sposoby zmniejszania współczynnika uczenia 116 Eksperymenty - zmniejszanie współczynnika uczenia 118 Inicjowanie wag 119 Matematyka i kod 120 Eksperymenty - inicjowanie wag 121 Dropout 122 Definicja 122 Implementacja 122 Eksperymenty - dropout 123 5. Konwolucyjne sieci neuronowe 127 Sieci neuronowe i uczenie reprezentacji 127 Inna architektura dla danych graficznych 128 Operacja konwolucji 129 Wielokanałowa operacja konwolucji 131 Warstwy konwolucyjne 131 Wpływ na implementację 132 Różnice między warstwami konwolucyjnymi a warstwami gęstymi 133 Generowanie predykcji z użyciem warstw konwolucyjnych - warstwa spłaszczania 134 Warstwy agregujące 135 Implementowanie wielokanałowej operacji konwolucji 137 Krok w przód 137 Konwolucja - krok wstecz 140 Porcje danych, konwolucje dwuwymiarowe i operacje wielokanałowe 144 Konwolucje dwuwymiarowe 145 Ostatni element - dodawanie kanałów 147 Używanie nowej operacji do uczenia sieci CNN 150 Operacja Flatten 150 Kompletna warstwa Conv2D 151 Eksperymenty 152 6. Rekurencyjne sieci neuronowe 155 Najważniejsze ograniczenie - przetwarzanie odgałęzień 156 Automatyczne różniczkowanie 158 Pisanie kodu do akumulowania gradientów 158 Powody stosowania sieci RNN 162 Wprowadzenie do sieci RNN 163 Pierwsza klasa dla sieci RNN - RNNLayer 164 Druga klasa dla sieci RNN - RNNNode 165 Łączenie obu klas 166 Krok wstecz 167 Sieci RNN - kod 169 Klasa RNNLayer 170 Podstawowe elementy sieci RNNNode 172 Zwykłe węzły RNNNode 173 Ograniczenia zwykłych węzłów RNNNode 175 Pierwsze rozwiązanie - węzły GRUNode 176 Węzły LSTMNode 179 Reprezentacja danych dla opartego na sieci RNN modelu języka naturalnego na poziomie znaków 182 Inne zadania z obszaru modelowania języka naturalnego 182 Łączenie odmian warstw RNNLayer 183 Łączenie wszystkich elementów 184 7. PyTorch 187 Typ Tensor w bibliotece PyTorch 187 Deep learning z użyciem biblioteki PyTorch 188 Elementy z biblioteki PyTorch - klasy reprezentujące model, warstwę, optymalizator i wartość straty 189 Implementowanie elementów sieci neuronowej za pomocą biblioteki PyTorch - warstwa DenseLayer 190 Przykład - modelowanie cen domów w Bostonie z użyciem biblioteki PyTorch 191 Elementy oparte na bibliotece PyTorch - klasy optymalizatora i wartości straty 192 Elementy oparte na bibliotece PyTorch - klasa nauczyciela 193 Sztuczki służące do optymalizowania uczenia w bibliotece PyTorch 195 Sieci CNN w bibliotece PyTorch 196 Klasa DataLoader i transformacje 198 Tworzenie sieci LSTM za pomocą biblioteki PyTorch 200 Postscriptum - uczenie nienadzorowane z użyciem autoenkoderów 202 Uczenie reprezentacji 203 Podejście stosowane w sytuacjach, gdy w ogóle nie ma etykiet 203 Implementowanie autoenkodera za pomocą biblioteki PyTorch 204 Trudniejszy test uczenia nienadzorowanego i rozwiązanie 209 A. Skok na głęboką wodę 211 Reguła łańcuchowa dla macierzy 211 Gradient dla wartości straty względem wyrazu wolnego 215 Konwolucje z użyciem mnożenia macierzy 215
Sygnatura czytelni BWEAiI: XII Ł 175
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149871 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności