Géron Aurélien
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(3)
Forma i typ
Książki
(3)
Publikacje fachowe
(3)
Publikacje dydaktyczne
(1)
Dostępność
tylko na miejscu
(3)
Placówka
Biblioteka WEAiI
(3)
Autor
Berłowski Paweł
(189)
Kotowski Włodzimierz
(179)
Praca zbiorowa
(157)
Skoczylas Zbigniew
(152)
Stiasny Grzegorz
(143)
Géron Aurélien
(-)
Sadlik Ryszard
(142)
Blum Maciej
(140)
Michalski Dariusz
(134)
Lewandowski Maciej
(131)
Majewski Jerzy S
(131)
Etzold Hans-Rüdiger
(120)
Leśniewski Mariusz
(116)
Gewert Marian
(108)
Maruchin Wojciech
(107)
Guryn Halina
(105)
Traczyk Wojciech
(101)
Chalastra Michał
(99)
Kardyś Marta
(97)
Marx Karl (1818-1883)
(94)
Nazwisko Imię
(94)
Berkieta Mateusz
(93)
Tomczak Małgorzata
(93)
Polkowski Sławomir
(92)
Engels Friedrich (1820-1895)
(91)
Jakubiec Izabela
(90)
Kotapski Roman
(90)
Rybicki Piotr
(90)
Krysicki Włodzimierz (1905-2001)
(88)
Teleguj Kazimierz
(88)
Kapołka Maciej
(86)
Mikołajewska Emilia
(84)
Zaborowska Joanna
(81)
Piątek Grzegorz
(79)
Rudnicki Bogdan
(79)
Starosolski Włodzimierz (1933- )
(79)
Meryk Radosław
(78)
Górczyński Robert
(77)
Polit Ryszard
(77)
Mroczek Wojciech
(76)
Kulawik Marta
(74)
Mycielski Krzysztof
(74)
Myszkorowski Jakub
(73)
Konopka Eduard
(71)
Jabłoński Marek
(70)
Bielecki Jan (1942-2001)
(69)
Knosala Ryszard (1949- )
(68)
Rajca Piotr (1970- )
(68)
Rymarz Małgorzata
(68)
Walczak Krzysztof
(68)
Walkiewicz Łukasz
(68)
Wiecheć Marek
(68)
Jabłoński Adam
(67)
Laszczak Mirosław
(66)
Piwko Łukasz
(66)
Wodziczko Piotr
(65)
Dziedzic Zbigniew
(64)
Sidor-Rządkowska Małgorzata
(64)
Żakowski Wojciech (1929-1993)
(64)
Pasko Marian
(62)
Włodarski Lech (1916-1997)
(62)
Czakon Wojciech
(61)
Leyko Jerzy (1918-1995)
(61)
Jankowski Mariusz
(60)
Kostecka Alicja
(60)
Lenin Włodzimierz (1870-1924)
(60)
Paszkowska Małgorzata
(60)
Wróblewski Piotr
(60)
Karpińska Marta
(59)
Próchnicki Wojciech
(59)
Rogala Elżbieta
(59)
Bielecki Maciej
(57)
Jelonek Jakub
(57)
Malkowski Tomasz
(57)
Pilch Piotr
(57)
Rauziński Robert (1933- )
(57)
Gawrońska Joanna
(56)
Ajdukiewicz Andrzej (1939- )
(55)
Cieślak Piotr
(55)
Draniewicz Bartosz
(55)
Godek Piotr
(55)
Osiński Zbigniew (1926-2001)
(55)
Jasiński Filip
(54)
Kuliński Włodzisław
(54)
Suchodolski Bogdan (1903-1992)
(54)
Forowicz Krystyna
(53)
Klupiński Kamil
(53)
Szkutnik Leon Leszek
(52)
Zdanikowski Paweł
(52)
Wantuch-Matla Dorota
(51)
Barowicz Marek
(50)
Trammer Hubert
(50)
Walczak Tomasz
(50)
Watrak Andrzej
(50)
Zgółkowa Halina (1947- )
(50)
Barańska Katarzyna
(49)
Czajkowska-Matosiuk Katarzyna
(49)
Jurlewicz Teresa
(49)
Pikoń Andrzej
(49)
Szargut Jan (1923- )
(49)
Chojnacki Ireneusz
(48)
Rok wydania
2020 - 2024
(2)
2010 - 2019
(1)
Okres powstania dzieła
2001-
(3)
Kraj wydania
Polska
(3)
Język
polski
(3)
Odbiorca
Informatycy
(1)
Temat
Uczenie maszynowe
(3)
Sieci neuronowe (informatyka)
(2)
Inteligencja sztuczna
(1)
Języki programowania
(1)
Keras (biblioteka programistyczna)
(1)
Programowanie (informatyka)
(1)
Sieci neuronowe (komputerowe)
(1)
Sztuczna sieć neuronowa
(1)
TensorFlow (biblioteka programistyczna)
(1)
Gatunek
Podręcznik
(3)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(3)
3 wyniki Filtruj
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłumaczenie: Krzysztof Sawka. - Wydanie II, aktualizacja do modułu TensorFlow 2. - Gliwice : Helion, copyright 2020. - 764, [4] strony : ilustracje ; 25 cm.
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO 25 1. Krajobraz uczenia maszynowego 27 Czym jest uczenie maszynowe? 28 Dlaczego warto korzystać z uczenia maszynowego? 28 Przykładowe zastosowania 31 Rodzaje systemów uczenia maszynowego 33 Uczenie nadzorowane i uczenie nienadzorowane 34 Uczenie wsadowe i uczenie przyrostowe 40 Uczenie z przykładów i uczenie z modelu 43 Główne problemy uczenia maszynowego 48 Niedobór danych uczących 50 Niereprezentatywne dane uczące 50 Dane kiepskiej jakości 51 Nieistotne cechy 52 Przetrenowanie danych uczących 52 Niedotrenowanie danych uczących 54 Testowanie i ocenianie 55 Strojenie hiperparametrów i dobór modelu 55 Niezgodność danych 56 2. Nasz pierwszy projekt uczenia maszynowego 59 Praca z rzeczywistymi danymi 59 Przeanalizuj całokształt projektu 61 Określ zakres problemu 61 Wybierz metrykę wydajności 63 Sprawdź założenia 65 Zdobądź dane 65 Stwórz przestrzeń roboczą 66 Pobierz dane 68 Rzut oka na strukturę danych 70 Stwórz zbiór testowy 74 Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje 78 Wizualizowanie danych geograficznych 78 Poszukiwanie korelacji 80 Eksperymentowanie z kombinacjami atrybutów 83 Przygotuj dane pod algorytmy uczenia maszynowego 84 Oczyszczanie danych 84 Obsługa tekstu i atrybutów kategorialnych 87 Niestandardowe transformatory 89 Skalowanie cech 90 Potoki transformujące 90 Wybór i uczenie modelu 92 Trenowanie i ocena modelu za pomocą zbioru uczącego 92 Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego 93 Wyreguluj swój model 96 Metoda przeszukiwania siatki 96 Metoda losowego przeszukiwania 98 Metody zespołowe 98 Analizuj najlepsze modele i ich błędy 98 Oceń system za pomocą zbioru testowego 99 Uruchom, monitoruj i utrzymuj swój system 100 Teraz Twoja kolej! 103 3. Klasyfikacja 105 Zbiór danych MNIST 105 Uczenie klasyfikatora binarnego 107 Miary wydajności 108 Pomiar dokładności za pomocą sprawdzianu krzyżowego 108 Macierz pomyłek 110 Precyzja i pełność 111 Kompromis pomiędzy precyzją a pełnością 112 Wykres krzywej ROC 116 Klasyfikacja wieloklasowa 119 Analiza błędów 121 Klasyfikacja wieloetykietowa 124 Klasyfikacja wielowyjściowa 125 4. Uczenie modeli 129 Regresja liniowa 130 Równanie normalne 131 Złożoność obliczeniowa 134 Gradient prosty 135 Wsadowy gradient prosty 138 Stochastyczny spadek wzdłuż gradientu 141 Schodzenie po gradiencie z minigrupami 143 Regresja wielomianowa 145 Krzywe uczenia 146 Regularyzowane modele liniowe 150 Regresja grzbietowa 150 Regresja metodą LASSO 153 Metoda elastycznej siatki 155 Wczesne zatrzymywanie 156 Regresja logistyczna 157 Szacowanie prawdopodobieństwa 158 Funkcje ucząca i kosztu 159 Granice decyzyjne 160 Regresja softmax 162 5. Maszyny wektorów nośnych 167 Liniowa klasyfikacja SVM 167 Klasyfikacja miękkiego marginesu 168 Nieliniowa klasyfikacja SVM 170 Jądro wielomianowe 171 Cechy podobieństwa 172 Gaussowskie jądro RBF 173 Złożoność obliczeniowa 175 Regresja SVM 175 Mechanizm działania 177 Funkcja decyzyjna i prognozy 177 Cel uczenia 178 Programowanie kwadratowe 180 Problem dualny 181 Kernelizowane maszyny SVM 182 Przyrostowe maszyny SVM 185 6. Drzewa decyzyjne 187 Uczenie i wizualizowanie drzewa decyzyjnego 187 Wyliczanie prognoz 188 Szacowanie prawdopodobieństw przynależności do klas 190 Algorytm uczący CART 191 Złożoność obliczeniowa 192 Wskaźnik Giniego czy entropia? 192 Hiperparametry regularyzacyjne 193 Regresja 194 Niestabilność 196 7. Uczenie zespołowe i losowe lasy 199 Klasyfikatory głosujące 199 Agregacja i wklejanie 202 Agregacja i wklejanie w module Scikit-Learn 203 Ocena OOB 205 Rejony losowe i podprzestrzenie losowe 206 Losowe lasy 206 Zespół Extra-Trees 207 Istotność cech 207 Wzmacnianie 209 AdaBoost 209 Wzmacnianie gradientowe 212 Kontaminacja 217 8. Redukcja wymiarowości 223 Klątwa wymiarowości 224 Główne strategie redukcji wymiarowości 225 Rzutowanie 225 Uczenie rozmaitościowe 227 Analiza PCA 228 Zachowanie wariancji 229 Główne składowe 230 Rzutowanie na d wymiarów 231 Implementacja w module Scikit-Learn 232 Współczynnik wariancji wyjaśnionej 232 Wybór właściwej liczby wymiarów 232 Algorytm PCA w zastosowaniach kompresji 233 Losowa analiza PCA 234 Przyrostowa analiza PCA 235 Jądrowa analiza PCA 236 Wybór jądra i strojenie hiperparametrów 236 Algorytm LLE 239 Inne techniki redukowania wymiarowości 241 9. Techniki uczenia nienadzorowanego 243 Analiza skupień 244 Algorytm centroidów 246 Granice algorytmu centroidów 255 Analiza skupień w segmentacji obrazu 256 Analiza skupień w przetwarzaniu wstępnym 257 Analiza skupień w uczeniu półnadzorowanym 259 Algorytm DBSCAN 262 Inne algorytmy analizy skupień 265 Mieszaniny gaussowskie 266 Wykrywanie anomalii za pomocą mieszanin gaussowskich 271 Wyznaczanie liczby skupień 273 Modele bayesowskie mieszanin gaussowskich 275 Inne algorytmy służące do wykrywania anomalii i nowości 279 CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE 283 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras 285 Od biologicznych do sztucznych neuronów 286 Neurony biologiczne 287 Operacje logiczne przy użyciu neuronów 288 Perceptron 289 Perceptron wielowarstwowy i propagacja wsteczna 293 Regresyjne perceptrony wielowarstwowe 297 Klasyfikacyjne perceptrony wielowarstwowe 298 Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras 300 Instalacja modułu TensorFlow 2 301 Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego 302 Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego 311 Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego 312 Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego 316 Zapisywanie i odczytywanie modelu 318 Stosowanie wywołań zwrotnych 318 Wizualizacja danych za pomocą narzędzia TensorBoard 320 Dostrajanie hiperparametrów sieci neuronowej 323 Liczba warstw ukrytych 326 Liczba neuronów w poszczególnych warstwach ukrytych 327 Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry 328 11. Uczenie głębokich sieci neuronowych 333 Problemy zanikających/eksplodujących gradientów 334 Inicjalizacje wag Glorota i He 334 Nienasycające funkcje aktywacji 336 Normalizacja wsadowa 340 Obcinanie gradientu 346 Wielokrotne stosowanie gotowych warstw 347 Uczenie transferowe w interfejsie Keras 348 Nienadzorowane uczenie wstępne 350 Uczenie wstępne za pomocą dodatkowego zadania 350 Szybsze optymalizatory 352 Optymalizacja momentum 352 Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) 353 AdaGrad 355 RMSProp 356 Optymalizatory Adam i Nadam 357 Harmonogramowanie współczynnika uczenia 359 Regularyzacja jako sposób zapobiegania przetrenowaniu 364 Regularyzacja l1 i l2 364 Porzucanie 365 Regularyzacja typu Monte Carlo (MC) 368 Regularyzacja typu max-norm 370 Podsumowanie i praktyczne wskazówki 371 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow 375 Krótkie omówienie modułu TensorFlow 375 Korzystanie z modułu TensorFlow jak z biblioteki NumPy 379 Tensory i operacje 379 Tensory a biblioteka NumPy 381 Konwersje typów 381 Zmienne 381 Inne struktury danych 382 Dostosowywanie modeli i algorytmów uczenia 383 Niestandardowe funkcje straty 383 Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe 384 Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia 386 Niestandardowe wskaźniki 387 Niestandardowe warstwy 389 Niestandardowe modele 392 Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu 394 Obliczanie gradientów za pomocą różniczkowania automatycznego 396 Niestandardowe pętle uczenia 399 Funkcje i grafy modułu TensorFlow 402 AutoGraph i kreślenie 404 Reguły związane z funkcją TF 405 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow 409 Interfejs danych 410 Łączenie przekształceń 410 Tasowanie danych 412 Wstępne przetwarzanie danych 415 Składanie wszystkiego w całość 416 Pobieranie wstępne 417 Stosowanie zestawu danych z interfejsem tf.keras 418 Format TFRecord 419 Skompresowane pliki TFRecord 420 Wprowadzenie do buforów protokołów 420 Bufory protokołów w module TensorFlow 422 Wczytywanie i analizowanie składni obiektów Example 423 Obsługa list list za pomocą bufora protokołów SequenceExample 424 Wstępne przetwarzanie cech wejściowych 425 Kodowanie cech kategorialnych za pomocą wektorów gorącojedynkowych 426 Kodowanie cech kategorialnych za pomocą wektorów właściwościowych 428 Warstwy przetwarzania wstępnego w interfejsie Keras 431 TF Transform 433 Projekt TensorFlow Datasets (TFDS) 435 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych 439 Struktura kory wzrokowej 440 Warstwy splotowe 441 Filtry 443 Stosy map cech 444 Implementacja w module TensorFlow 446 Zużycie pamięci operacyjnej 448 Warstwa łącząca 449 Implementacja w module TensorFlow 451 Architektury splotowych sieci neuronowych 452 LeNet-5 454 AlexNet 455 GoogLeNet 458 VGGNet 461 ResNet 461 Xception 465 SENet 466 Implementacja sieci ResNet-34 za pomocą interfejsu Keras 468 Korzystanie z gotowych modeli w interfejsie Keras 469 Gotowe modele w uczeniu transferowym 471 Klasyfikowanie i lokalizowanie 473 Wykrywanie obiektów 474 W pełni połączone sieci splotowe 476 Sieć YOLO 478 Segmentacja semantyczna 481 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych 487 Neurony i warstwy rekurencyjne 488 Komórki pamięci 490 Sekwencje wejść i wyjść 491 Uczenie sieci rekurencyjnych 492 Prognozowanie szeregów czasowych 493 Wskaźniki bazowe 494 Implementacja prostej sieci rekurencyjnej 494 Głębokie sieci rekurencyjne 496 Prognozowanie kilka taktów w przód 497 Obsługa długich sekwencji 500 Zwalczanie problemu niestabilnych gradientów 501 Zwalczanie problemu pamięci krótkotrwałej 503 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi 513 Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej 514 Tworzenie zestawu danych uczących 515 Rozdzielanie zestawu danych sekwencyjnych 515 Dzielenie zestawu danych sekwencyjnych na wiele ramek 516 Budowanie i uczenie modelu Char-RNN 518 Korzystanie z modelu Char-RNN 519 Generowanie sztucznego tekstu szekspirowskiego 519 Stanowe sieci rekurencyjne 520 Analiza sentymentów 522 Maskowanie 526 Korzystanie z gotowych reprezentacji właściwościowych 527 Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego 529 Dwukierunkowe warstwy rekurencyjne 532 Przeszukiwanie wiązkowe 533 Mechanizmy uwagi 534 Mechanizm uwagi wizualnej 537 Liczy się tylko uwaga, czyli architektura transformatora 539 Współczesne innowacje w modelach językowych 546 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych 551 Efektywne reprezentacje danych 552 Analiza PCA za pomocą niedopełnionego autokodera liniowego 554 Autokodery stosowe 555 Implementacja autokodera stosowego za pomocą interfejsu Keras 556 Wizualizowanie rekonstrukcji 557 Wizualizowanie zestawu danych Fashion MNIST 558 Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych 558 Wiązanie wag 560 Uczenie autokoderów pojedynczo 561 Autokodery splotowe 562 Autokodery rekurencyjne 563 Autokodery odszumiające 564 Autokodery rzadkie 566 Autokodery wariacyjne 569 Generowanie obrazów Fashion MNIST 572 Generatywne sieci przeciwstawne 574 Problemy związane z uczeniem sieci GAN 577 Głębokie splotowe sieci GAN 579 Rozrost progresywny sieci GAN 582 Sieci StyleGAN 585 18. Uczenie przez wzmacnianie 589 Uczenie się optymalizowania nagród 590 Wyszukiwanie strategii 591 Wprowadzenie do narzędzia OpenAI Gym 593 Sieci neuronowe jako strategie 597 Ocenianie czynności: problem przypisania zasługi 598 Gradienty strategii 600 Procesy decyzyjne Markowa 604 Uczenie metodą różnic czasowych 607 Q-uczenie 609 Strategie poszukiwania 610 Przybliżający algorytm Q-uczenia i Q-uczenie głębokie 611 Implementacja modelu Q-uczenia głębokiego 612 Odmiany Q-uczenia głębokiego 616 Ustalone Q-wartości docelowe 616 Podwójna sieć DQN 617 Odtwarzanie priorytetowych doświadczeń 618 Walcząca sieć DQN 618 Biblioteka TF-Agents 619 Instalacja biblioteki TF-Agents 620 Środowiska TF-Agents 620 Specyfikacja środowiska 621 Funkcje opakowujące środowisko i wstępne przetwarzanie środowiska Atari 622 Architektura ucząca 625 Tworzenie Q-sieci głębokiej 627 Tworzenie agenta DQN 629 Tworzenie bufora odtwarzania i związanego z nim obserwatora 630 Tworzenie wskaźników procesu uczenia 631 Tworzenie sterownika 632 Tworzenie zestawu danych 633 Tworzenie pętli uczenia 636 Przegląd popularnych algorytmów RN 637 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow 641 Eksploatacja modelu TensorFlow 642 Korzystanie z systemu TensorFlow Serving 642 Tworzenie usługi predykcyjnej na platformie GCP AI 650 Korzystanie z usługi prognozowania 655 Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym 658 Przyspieszanie obliczeń za pomocą procesorów graficznych 661 Zakup własnej karty graficznej 662 Korzystanie z maszyny wirtualnej wyposażonej w procesor graficzny 664 Colaboratory 665 Zarządzanie pamięcią operacyjną karty graficznej 666 Umieszczanie operacji i zmiennych na urządzeniach 669 Przetwarzanie równoległe na wielu urządzeniach 671 Uczenie modeli za pomocą wielu urządzeń 673 Zrównoleglanie modelu 673 Zrównoleglanie danych 675 Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania 680 Uczenie modelu za pomocą klastra TensorFlow 681 Realizowanie dużych grup zadań uczenia za pomocą usługi Google Cloud AI Platform 684 Penetracyjne strojenie hiperparametrów w usłudze AI Platform 686 A. Rozwiązania ćwiczeń 691 B. Lista kontrolna projektu uczenia maszynowego 725 C. Problem dualny w maszynach wektorów nośnych 731 D. Różniczkowanie automatyczne 735 E. Inne popularne architektury sieci neuronowych 743 F. Specjalne struktury danych 751 G. Grafy TensorFlow 757
Sygnatura czytelni BWEAiI: XII Ł 177
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149873 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Indeks.
Fenomen uczenia maszynowego Uczenie maszynowe w Twoich projektach Cel i sposób jego osiągnięcia Wymogi wstępne Zawartość książki Dodatkowe zasoby Konwencje stosowane w książce Korzystanie z kodu źródłowego Część I Podstawy uczenia maszynowego Rozdział 1. Krajobraz uczenia maszynowego Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Rodzaje systemów uczenia maszynowego Uczenie nadzorowane/nienadzorowane Uczenie nadzorowane Uczenie nienadzorowane Uczenie półnadzorowane Uczenie przez wzmacnianie Uczenie wsadowe/przyrostowe Uczenie wsadowe Uczenie przyrostowe Uczenie z przykładów/z modelu Uczenie z przykładów Uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz metrykę wydajności Sprawdź założenia Zdobądź dane Stwórz przestrzeń roboczą Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Wizualizowanie danych geograficznych Poszukiwanie korelacji Eksperymentowanie z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyszczanie danych Obsługa tekstu i atrybutów kategorialnych Niestandardowe transformatory Skalowanie cech Potoki transformujące Wybór i uczenie modelu Trenowanie i ocena modelu za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizuj najlepsze modele i ich błędy Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Teraz Twoja kolej! Rozdział 3. Klasyfikacja Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa Rozdział 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Metoda elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax Rozdział 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Dodawanie cech podobieństwa Gaussowskie jądro RBF Złożoność obliczeniowa Regresja SVM Mechanizm działania Funkcja decyzyjna i prognozy Cel uczenia Programowanie kwadratowe Problem dualny Kernelizowane maszyny SVM Przyrostowe maszyny SVM Rozdział 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Niestabilność Rozdział 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Kontaminacja Rozdział 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Główne składowe Rzutowanie na d wymiarów Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Przyrostowa analiza PCA Losowa analiza PCA Jądrowa analiza PCA Wybór jądra i strojenie hiperparametrów Algorytm LLE Inne techniki redukowania wymiarowości Część II Sieci neuronowe i uczenie głębokie Rozdział 9. Instalacja i używanie modułu TensorFlow Instalacja Tworzenie pierwszego grafu i uruchamianie go w sesji Zarządzanie grafami Cykl życia wartości w węźle Regresja liniowa przy użyciu modułu TensorFlow Implementacja metody gradientu prostego Ręczne obliczanie gradientów Automatyczne różniczkowanie Korzystanie z optymalizatora Dostarczanie danych algorytmowi uczącemu Zapisywanie i wczytywanie modeli Wizualizowanie grafu i krzywych uczenia za pomocą modułu TensorBoard Zakresy nazw Modułowość Udostępnianie zmiennych Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Uczenie sieci MLP za pomocą zaawansowanego interfejsu API modułu TensorFlow Uczenie głębokiej sieci neuronowej za pomocą standardowego interfejsu TensorFlow Faza konstrukcyjna Faza wykonawcza Korzystanie z sieci neuronowej Strojenie hiperparametrów sieci neuronowej Liczba ukrytych warstw Liczba neuronów tworzących warstwę ukrytą Funkcje aktywacji Rozdział 11. Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjacje wag Xaviera i He Nienasycające funkcje aktywacji Normalizacja wsadowa Implementacja normalizacji wsadowej za pomocą modułu TensorFlow Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Wielokrotne stosowanie modelu TensorFlow Wykorzystywanie modeli utworzonych w innych środowiskach Zamrażanie niższych warstw Zapamiętywanie warstw ukrytych Modyfikowanie, usuwanie lub zastępowanie górnych warstw Repozytoria modeli Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyśpieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizacja Adam Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób unikania przetrenowania Wczesne zatrzymywanie Regularyzacja 1 i 2 Porzucanie Regularyzacja typu max-norm Dogenerowanie danych Praktyczne wskazówki Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Wiele urządzeń na jednym komputerze Instalacja Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji na urządzeniach Proste rozmieszczanie Zapisywanie zdarzeń rozmieszczania Funkcja dynamicznego rozmieszczania Operacje i jądra Miękkie rozmieszczanie Przetwarzanie równoległe Zależności sterujące Wiele urządzeń na wielu serwerach Otwieranie sesji Usługi nadrzędna i robocza Przypinanie operacji w wielu zadaniach Rozdzielanie zmiennych pomiędzy wiele serwerów parametrów Udostępnianie stanu rozproszonych sesji za pomocą kontenerów zasobów Komunikacja asynchroniczna za pomocą kolejek Umieszczanie danych w kolejce Usuwanie danych z kolejki Kolejki krotek Zamykanie kolejki RandomShuffleQueue PaddingFIFOQueue Wczytywanie danych bezpośrednio z grafu Wstępne wczytanie danych do zmiennej Wczytywanie danych uczących bezpośrednio z grafu Czytniki wieloklasowe wykorzystujące klasy Coordinator i QueueRunner Inne funkcje pomocnicze Przetwarzanie równoległe sieci neuronowych w klastrze TensorFlow Jedna sieć neuronowa na każde urządzenie Replikacja wewnątrzgrafowa i międzygrafowa Zrównoleglanie modelu Zrównoleglanie danych Aktualizacje synchroniczne Aktualizacje asynchroniczne Nasycenie przepustowości Implementacja w module TensorFlow Rozdział 13. Splotowe sieci neuronowe Architektura kory wzrokowej Warstwa splotowa Filtry Stosy map cech Implementacja w module TensorFlow Zużycie pamięci operacyjnej Warstwa łącząca Architektury splotowych sieci neuronowych LeNet-5 AlexNet GoogLeNet ResNet Rozdział 14. Rekurencyjne sieci neuronowe Neurony rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Podstawowe sieci RSN w module TensorFlow Statyczne rozwijanie w czasie Dynamiczne rozwijanie w czasie Obsługa sekwencji wejściowych o zmiennej długości Obsługa sekwencji wyjściowych o zmiennej długości Uczenie rekurencyjnych sieci neuronowych Uczenie klasyfikatora sekwencji Uczenie w celu przewidywania szeregów czasowych Twórcza sieć rekurencyjna Głębokie sieci rekurencyjne Rozmieszczanie głębokiej sieci rekurencyjnej pomiędzy wiele kart graficznych Wprowadzanie metody porzucania Problem uczenia w sieciach wielotaktowych Komórka LSTM Połączenia przezierne Komórka GRU Przetwarzanie języka naturalnego Reprezentacje wektorowe słów Sieć typu koder-dekoder służąca do tłumaczenia maszynowego Rozdział 15. Autokodery Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja w module TensorFlow Wiązanie wag Uczenie autokoderów pojedynczo Wizualizacja rekonstrukcji Wizualizowanie cech Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Autokodery odszumiające Implementacja w module TensorFlow Autokodery rzadkie Implementacja w module TensorFlow Autokodery wariacyjne Generowanie cyfr Inne autokodery Rozdział 16. Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie polityki Wprowadzenie do narzędzia OpenAI gym Sieci neuronowe jako polityki Ocenianie czynności problem przypisania zasługi Gradienty polityk Procesy decyzyjne Markowa Uczenie metodą różnic czasowych i algorytm Q-uczenia Polityki poszukiwania Przybliżający algorytm Q-uczenia Nauka gry w Ms. Pac-Man za pomocą głębokiego Q-uczenia Rozdział 1. Krajobraz uczenia maszynowego Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Rozdział 3. Klasyfikacja Rozdział 4. Uczenie modeli Rozdział 5. Maszyny wektorów nośnych Rozdział 6. Drzewa decyzyjne Rozdział 7. Uczenie zespołowe i losowe lasy Rozdział 8. Redukcja wymiarowości Rozdział 9. Instalacja i używanie modułu TensorFlow Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Rozdział 11. Uczenie głębokich sieci neuronowych Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Rozdział 13. Splotowe sieci neuronowe Rozdział 14. Rekurencyjne sieci neuronowe Rozdział 15. Autokodery Rozdział 16. Uczenie przez wzmacnianie Dodatek B Lista kontrolna projektu uczenia maszynowego Określenie problemu i przeanalizowanie go w szerszej perspektywie Pozyskanie danych Analiza danych Przygotowanie danych Stworzenie krótkiej listy obiecujących modeli Dostrojenie modelu Zaprezentowanie rozwiązania Dodatek C Problem dualny w maszynach wektorów nośnych Dodatek D Różniczkowanie automatyczne Różniczkowanie ręczne Różniczkowanie symboliczne Różniczkowanie numeryczne Różniczkowanie automatyczne Odwrotne różniczkowanie automatyczne Dodatek E Inne popularne architektury sieci neuronowych Sieci Hopfielda Maszyny Boltzmanna Ograniczone maszyny Boltzmanna Głębokie sieci przekonań Mapy samoorganizujące
Sygnatura czytelni BWEAiI: XII Ł 101
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146326 N (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn, Keras i TensorFlow / Aurélien Géron ; przekład: Krzysztof Sawka. - Gliwice : Helion, 2023. - 774, [2] strony : fotografie, ilustracje, wykresy ; 24 cm.
Wydanie 3. odnosi się do oryginału. Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Indeks.
Podstawy uczenia maszynowego Nadzorowanie uczenia Uczenie wsadowe i uczenie przyrostowe Uczenie z przykładów i uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Testowanie i ocenianie Strojenie hiperparametrów i dobór modelu Niezgodność danych Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz wskaźnik wydajności Zdobądź dane Uruchom przykładowy kod w serwisie Google Colab Zapisz zmiany w kodzie i w danych Zalety i wady interaktywności Kod w książce a kod w notatnikach Jupyter Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Zwizualizuj dane geograficzne Poszukaj korelacji Eksperymentuj z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyść dane Obsługa tekstu i atrybutów kategorialnych Skalowanie i przekształcanie cech Niestandardowe transformatory Potoki transformujące Wybierz i wytrenuj model Trenuj i oceń model za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizowanie najlepszych modeli i ich błędów Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Regresja metodą elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Cechy podobieństwa Gaussowskie jądro RBF Klasy SVM i złożoność obliczeniowa Regresja SVM Mechanizm działania liniowych klasyfikatorów SVM Problem dualny Kernelizowane maszyny SVM 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Wrażliwość na orientację osi Drzewa decyzyjne mają znaczną wariancję 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Wzmacnianie gradientu w oparciu o histogram Kontaminacja 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Rzutowanie na d wymiarów
Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Losowa analiza PCA Przyrostowa analiza PCA Rzutowanie losowe Algorytm LLE Inne techniki redukowania wymiarowości 9. Techniki uczenia nienadzorowanego Analiza skupień: algorytm centroidów i DBSCAN Algorytm centroidów Granice algorytmu centroidów Analiza skupień w segmentacji obrazu Analiza skupień w uczeniu półnadzorowanym Algorytm DBSCAN Mieszaniny gaussowskie Wykrywanie anomalii za pomocą mieszanin gaussowskich Wyznaczanie liczby skupień Bayesowskie modele mieszane Sieci neuronowe i uczenie głębokie 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Regresyjne perceptrony wielowarstwowe Klasyfikacyjne perceptrony wielowarstwowe Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego Zapisywanie i odczytywanie modelu Stosowanie wywołań zwrotnych Wizualizacja danych za pomocą narzędzia TensorBoard Dostrajanie hiperparametrów sieci neuronowej Liczba warstw ukrytych Liczba neuronów w poszczególnych warstwach ukrytych Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjalizacje wag Glorota i He Lepsze funkcje aktywacji Normalizacja wsadowa Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Uczenie transferowe w interfejsie Keras Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizator Adam AdaMax Nadam AdamW Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób zapobiegania przetrenowaniu Regularyzacja l1 i l2 Porzucanie Regularyzacja typu Monte Carlo (MC) Regularyzacja typu max-norm Modele niestandardowe i uczenie za pomocą modułu TensorFlow Krótkie omówienie modułu TensorFlow Korzystanie z modułu TensorFlow jak z biblioteki NumPy Tensory i operacje Tensory a biblioteka NumPy Konwersje typów Zmienne Dostosowywanie modeli i algorytmów uczenia Niestandardowe funkcje straty Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia Niestandardowe wskaźniki Niestandardowe warstwy Niestandardowe modele Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu Obliczanie gradientów za pomocą różniczkowania automatycznego Niestandardowe pętle uczenia Funkcje i grafy modułu TensorFlow AutoGraph i kreślenie Reguły związane z funkcją TF Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow Interfejs tf.data Łączenie przekształceń Tasowanie danych Przeplatanie wierszy z różnych plików Wstępne przetwarzanie danych Składanie wszystkiego w całość Pobieranie wstępne Stosowanie zestawu danych z interfejsem Keras Format TFRecord Skompresowane pliki TFRecord Wprowadzenie do buforów protokołów Bufory protokołów w module TensorFlow Wczytywanie i analizowanie składni obiektów Example Obsługa list list za pomocą bufora protokołów SequenceExample Warstwy przetwarzania wstępnego Keras Warstwa Normalization Warstwa Discretization Warstwa CategoryEncoding Warstwa StringLookup Warstwa Hashing Kodowanie cech kategorialnych za pomocą wektorów właściwościowych Wstępne przetwarzanie tekstu Korzystanie z wytrenowanych składników modelu językowego Warstwy wstępnego przetwarzania obrazów Projekt TensorFlow Datasets (TFDS) Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych Struktura kory wzrokowej Warstwy splotowe Filtry Stosy map cech Implementacja warstw splotowych w interfejsie Keras Zużycie pamięci operacyjnej Warstwa łącząca Implementacja warstw łączących w interfejsie Keras Architektury splotowych sieci neuronowych LeNet-5 AlexNet
GoogLeNet VGGNet ResNet Xception SENet Wybór właściwej struktury CNN Implementacja sieci ResNet-34 za pomocą interfejsu Keras Korzystanie z gotowych modeli w interfejsie Keras Gotowe modele w uczeniu transferowym Klasyfikowanie i lokalizowanie Wykrywanie obiektów W pełni połączone sieci splotowe Sieć YOLO Śledzenie obiektów Segmentacja semantyczna Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych Neurony i warstwy rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Uczenie sieci rekurencyjnych Prognozowanie szeregów czasowych Rodzina modeli ARMA Przygotowywanie danych dla modeli uczenia maszynowego Prognozowanie za pomocą modelu liniowego Prognozowanie za pomocą prostej sieci rekurencyjnej Prognozowanie za pomocą głębokich sieci rekurencyjnych Prognozowanie wielowymiarowych szeregów czasowych Prognozowanie kilka taktów w przód Prognozowanie za pomocą modelu sekwencyjnego Obsługa długich sekwencji Zwalczanie problemu niestabilnych gradientów Zwalczanie problemu pamięci krótkotrwałej Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej Tworzenie zestawu danych uczących Budowanie i uczenie modelu char-RNN Generowanie sztucznego tekstu szekspirowskiego Stanowe sieci rekurencyjne Analiza opinii Maskowanie Korzystanie z gotowych reprezentacji właściwościowych i modeli językowych Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego Dwukierunkowe sieci rekurencyjne Przeszukiwanie wiązkowe Mechanizmy uwagi Liczy się tylko uwaga: pierwotna architektura transformatora Zatrzęsienie modeli transformatorów Transformatory wizualne Biblioteka Transformers firmy Hugging Face Autokodery, generatywne sieci przeciwstawne i modele rozpraszające Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja autokodera stosowego za pomocą interfejsu Keras Wizualizowanie rekonstrukcji Wizualizowanie zestawu danych Fashion MNIST Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Wiązanie wag Uczenie autokoderów pojedynczo Autokodery splotowe Autokodery odszumiające Autokodery rzadkie Autokodery wariacyjne Generowanie obrazów Fashion MNIST Generatywne sieci przeciwstawne Problemy związane z uczeniem sieci GAN Głębokie splotowe sieci GAN Rozrost progresywny sieci GAN Sieci StyleGAN Modele rozpraszające Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie strategii Wprowadzenie do narzędzia OpenAI Gym Sieci neuronowe jako strategie Ocenianie czynności: problem przypisania zasługi Gradienty strategii Procesy decyzyjne Markowa Uczenie metodą różnic czasowych Q-uczenie Przybliżający algorytm Q-uczenia i Q-uczenie głębokie Implementacja modelu Q-uczenia głębokiego Odmiany Q-uczenia głębokiego Ustalone Q-wartości docelowe Podwójna sieć DQN Odtwarzanie priorytetowych doświadczeń Walcząca sieć DQN Przegląd popularnych algorytmów RN Wielkoskalowe uczenie i wdrażanie modeli TensorFlow Eksploatacja modelu TensorFlow Korzystanie z systemu TensorFlow Serving Tworzenie usługi predykcyjnej na platformie Vertex AI Uwierzytelnianie i autoryzacja w serwisie GCP Wykonywanie zadań predykcji wsadowych w usłudze Vertex AI Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym Przetwarzanie modelu na stronie internetowej Przyspieszanie obliczeń za pomocą procesorów graficznych Zakup własnej karty graficznej Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji i zmiennych na urządzeniach Przetwarzanie równoległe na wielu urządzeniach Uczenie modeli za pomocą wielu urządzeń Zrównoleglanie modelu Zrównoleglanie danych Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania Uczenie modelu za pomocą klastra TensorFlow Realizowanie dużych grup zadań uczenia za pomocą usługi Vertex AI Strojenie hiperparametrów w usłudze Vertex AI
Sygnatura czytelni BWEAiI: XII E 131
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154703 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności