Uczenie maszynowe
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(63)
Forma i typ
Książki
(61)
Publikacje fachowe
(33)
Publikacje dydaktyczne
(18)
Publikacje naukowe
(16)
Artykuły
(2)
Poradniki i przewodniki
(2)
Publikacje popularnonaukowe
(1)
Dostępność
tylko na miejscu
(42)
dostępne
(24)
nieokreślona
(2)
Placówka
Wypożyczalnia
(24)
Biblioteka Międzywydziałowa
(4)
Biblioteka WEiZ
(1)
Egzemplarz lektoryjny
(1)
Magazyn
(1)
Biblioteka WEAiI
(37)
Autor
Sawka Krzysztof
(6)
Grażyński Andrzej
(3)
Géron Aurélien
(3)
Matuk Konrad
(3)
Janusz Jacek
(2)
Norvig Peter
(2)
Russell Stuart J. (1962- )
(2)
Szeliga Marcin
(2)
Walczak Tomasz
(2)
Walczak Tomasz (tłumacz)
(2)
Watrak Andrzej
(2)
Wawrzyński Paweł (1978- )
(2)
Adamczyk-Karwowska Agnieszka
(1)
Albon Chris
(1)
Albrzykowski Leszek
(1)
Ameisen Emmanuel
(1)
Barth Antje
(1)
Bhargava Aditya Y
(1)
Bombik Wojciech
(1)
Bonaccorso Giuseppe (informatyka)
(1)
Brzęcki Mariusz
(1)
Chapple Mike (1975- )
(1)
Chollet François
(1)
Chounlamany-Turalska Natalia
(1)
Cichosz Paweł
(1)
Conway Drew
(1)
Deisenroth Marc Peter
(1)
Esposito Dino
(1)
Esposito Francesco
(1)
Faisal A. Aldo
(1)
Fandango Armando
(1)
Fenner Mark E
(1)
Fenrich Wojciech
(1)
Fregly Chris
(1)
Gift Noah
(1)
Goldmeier Jordan
(1)
Grus Joel
(1)
Gutman Alex J
(1)
Gutowski Maksymilian
(1)
Górczyński Robert
(1)
Hearty John
(1)
Hejducka Paulina
(1)
Hubisz Jakub
(1)
Hulten Geoff
(1)
Hurbans Rishal
(1)
Jain Ankit
(1)
Kamiński Filip
(1)
Kamiński Filip (informatyk)
(1)
Kamiński Filip (informatyka)
(1)
Kanber Burak
(1)
Kapoor Amita
(1)
Kirk Matthew
(1)
Kneusel Ronald
(1)
Kordos Mirosław
(1)
Koronacki Jacek
(1)
Krawiec Krzysztof
(1)
Krechowicz Maria
(1)
Krzywicki Tomasz (informatyk)
(1)
Krzyśko Mirosław
(1)
Kurp Feliks
(1)
Kutyłowska Małgorzata
(1)
Kwiatkowski Przemysław (informatyk)
(1)
Lapan Maxim
(1)
Liu Yuxi
(1)
Mirjalili Vahid
(1)
Moroney Laurence
(1)
Muraszkiewicz Mieczysław (1948- )
(1)
Murphy Kevin P. (1970- )
(1)
Natingga Dávid
(1)
Niedźwiedź Jakub
(1)
Nielsen Aileen
(1)
Nowak Robert (informatyk)
(1)
Nwanganga Frederick Chukwuka
(1)
Ong Cheng Soon
(1)
Osinga Douwe
(1)
Osiński Jędrzej (informatyk)
(1)
Osowski Stanisław (1948- )
(1)
Piwko Łukasz
(1)
Ponteves Hadelin de
(1)
Prajsner Piotr
(1)
Przegalińska-Skierkowska Aleksandra (1982- )
(1)
Rajani Renu
(1)
Rajca Piotr
(1)
Rajca Piotr (1970- )
(1)
Raschka Sebastian
(1)
Ray Archana Tikayat
(1)
Sagalara Leszek
(1)
Sikorski Witold (informatyk)
(1)
Spurek Przemysław (matematyk)
(1)
Struski Łukasz
(1)
Szeremiota Przemysław
(1)
Szmurło Robert
(1)
Tabor Jacek (matematyk)
(1)
Topolski Mariusz
(1)
Unold Olgierd
(1)
Weidman Seth
(1)
Werner Grzegorz
(1)
White John Myles
(1)
White Ryan T
(1)
Wieczorek Tadeusz (1951- )
(1)
Rok wydania
2020 - 2024
(35)
2010 - 2019
(23)
2000 - 2009
(5)
Okres powstania dzieła
2001-
(53)
Kraj wydania
Polska
(62)
Stany Zjednoczone
(1)
Język
polski
(61)
angielski
(2)
Odbiorca
Szkoły wyższe
(10)
Programiści
(9)
Informatycy
(6)
Analitycy danych
(4)
Biegli rewidenci
(1)
Inwestorzy indywidualni
(1)
Inwestorzy instytucjonalni
(1)
Inżynierowie oprogramowania
(1)
Księgowi
(1)
Menedżerowie
(1)
Przedsiębiorcy
(1)
Urzędnicy
(1)
Temat
Budownictwo
(2411)
Zarządzanie
(2036)
Matematyka
(1929)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1791)
Uczenie maszynowe
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1012)
Turystyka
(952)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(931)
Automatyka
(916)
Język angielski
(871)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(759)
Technika
(740)
Konstrukcje budowlane
(726)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Transport
(673)
Piłka nożna
(672)
Elektroenergetyka
(667)
Architektura
(637)
Marketing
(636)
Innowacje
(619)
Naprężenia i odkształcenia
(612)
OZE
(606)
Programowanie (informatyka)
(589)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(566)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Produkcja
(517)
Materiałoznawstwo
(516)
Symulacja
(515)
Inwestycje
(506)
Praca
(503)
Analiza matematyczna
(495)
Zarządzanie jakością
(495)
Zarządzanie zasobami ludzkimi (HRM)
(494)
Dzieci
(489)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(467)
Psychologia
(467)
Szkolnictwo wyższe
(466)
Przedsiębiorstwo
(465)
Internet
(464)
Modele matematyczne
(464)
Metale
(462)
Nauka
(455)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(428)
Mechanika budowli
(424)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(382)
Banki
(378)
BHP
(375)
Rachunkowość zarządcza
(374)
Temat: czas
1901-2000
(1)
1945-1989
(1)
1989-2000
(1)
2001-
(1)
Temat: miejsce
Polska
(1)
Stany Zjednoczone (USA)
(1)
Gatunek
Podręcznik
(39)
Opracowanie
(6)
Monografia
(4)
Poradnik
(4)
Artykuł z czasopisma fachowego
(1)
Podręczniki akademickie
(1)
Praca zbiorowa
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(50)
Matematyka
(10)
Gospodarka, ekonomia, finanse
(2)
Inżynieria i technika
(2)
Zarządzanie i marketing
(1)
Kartoteka zagadnieniowa
Organizacja, Zarządzanie i Marketing
(2)
63 wyniki Filtruj
Książka
W koszyku
(Informatyka w Najlepszym Wydaniu)
Tytuł oryginału: Machine learning with Python cookbook : practical solutions from preprocessing to deep learning
Na okładce i stronie tytułowej nazwa wydawcy oryginału: O'Reilly.
Na książce także ISBN oryginału 9781491989388.
Indeks.
1. Wektor, macierz i tablica 15 1.1. Tworzenie wektora 15 1.2. Tworzenie macierzy 16 1.3. Tworzenie macierzy rzadkiej 17 1.4. Pobieranie elementów 18 1.5. Opisywanie macierzy 20 1.6. Przeprowadzanie operacji na elementach 20 1.7. Znajdowanie wartości maksymalnej i minimalnej 21 1.8. Obliczanie średniej, wariancji i odchylenia standardowego 22 1.9. Zmiana kształtu tablicy 23 1.10. Transponowanie wektora lub macierzy 24 1.11. Spłaszczanie macierzy 25 1.12. Znajdowanie rzędu macierzy 25 1.13. Obliczanie wyznacznika macierzy 26 1.14. Pobieranie przekątnej macierzy 27 1.15. Obliczanie śladu macierzy 27 1.16. Znajdowanie wektorów i wartości własnych 28 1.17. Obliczanie iloczynu skalarnego 29 1.18. Dodawanie i odejmowanie macierzy 30 1.19. Mnożenie macierzy 31 1.20. Odwracanie macierzy 32 1.21. Generowanie liczb losowych 33 2. Wczytywanie danych 35 2.1. Wczytywanie przykładowego zbioru danych 35 2.2. Tworzenie symulowanego zbioru danych 36 2.3. Wczytywanie pliku CSV 39 2.4. Wczytywanie pliku Excela 40 2.5. Wczytywanie pliku JSON 41 2.6. Wykonywanie zapytań do bazy danych SQL 42 3. Przygotowywanie danych 45 3.1. Tworzenie ramki danych 46 3.2. Opisywanie danych 47 3.3. Poruszanie się po ramce danych 49 3.4. Pobieranie wierszy na podstawie pewnych warunków 51 3.5. Zastępowanie wartości 52 3.6. Zmiana nazwy kolumny 53 3.7. Znajdowanie wartości minimalnej, maksymalnej, sumy, średniej i liczby elementów w kolumnie 54 3.8. Znajdowanie unikatowych wartości 55 3.9. Obsługa brakujących wartości 56 3.10. Usuwanie kolumn 58 3.11. Usuwanie wiersza 59 3.12. Usuwanie powielonych wierszy 60 3.13. Grupowanie wierszy 62 3.14. Grupowanie wierszy według czasu 63 3.15. Iterowanie przez kolumnę 65 3.16. Wywoływanie funkcji dla wszystkich elementów kolumny 66 3.17. Wywoływanie funkcji dla grupy 67 3.18. Konkatenacja obiektów typu DataFrame 68 3.19. Złączanie obiektów typu DataFrame 69 4. Obsługa danych liczbowych 73 4.1. Przeskalowywanie cechy 73 4.2. Standaryzowanie cechy 74 4.3. Normalizowanie obserwacji 76 4.4. Generowanie cech wielomianowych i interakcji 78 4.5. Transformacja cech 79 4.6. Wykrywanie elementów odstających 80 4.7. Obsługa elementów odstających 82 4.8. Dyskretyzacja cech 84 4.9. Grupowanie obserwacji przy użyciu klastra 85 4.10. Usuwanie obserwacji, w których brakuje wartości 87 4.11. Uzupełnianie brakujących wartości 88 5. Obsługa danych kategoryzujących 91 5.1. Kodowanie nominalnych cech kategoryzujących 92 5.2. Kodowanie porządkowych cech kategoryzujących 94 5.3. Kodowanie słowników cech 96 5.4. Wstawianie brakujących wartości klas 98 5.5. Obsługa niezrównoważonych klas 99 6. Obsługa tekstu 103 6.1. Oczyszczanie tekstu 103 6.2. Przetwarzanie i oczyszczanie danych HTML 105 6.3. Usuwanie znaku przestankowego 105 6.4. Tokenizacja tekstu 106 6.5. Usuwanie słów o małym znaczeniu 107 6.6. Stemming słów 108 6.7. Oznaczanie części mowy 109 6.8. Kodowanie tekstu za pomocą modelu worka słów 111 6.9. Określanie wagi słów 113 7. Obsługa daty i godziny 117 7.1. Konwertowanie ciągu tekstowego na datę 117 7.2. Obsługa stref czasowych 118 7.3. Pobieranie daty i godziny 120 7.4. Podział danych daty na wiele cech 121 7.5. Obliczanie różnicy między datami 122 7.6. Kodowanie dni tygodnia 123 7.7. Tworzenie cechy opóźnionej w czasie 124 7.8. Użycie okien upływającego czasu 125 7.9. Obsługa brakujących danych w serii danych zawierających wartości daty i godziny 126 8. Obsługa obrazów 129 8.1. Wczytywanie obrazu 129 8.2. Zapisywanie obrazu 132 8.3. Zmiana wielkości obrazu 133 8.4. Kadrowanie obrazu 134 8.5. Rozmywanie obrazu 135 8.6. Wyostrzanie obrazu 138 8.7. Zwiększanie kontrastu 138 8.8. Izolowanie kolorów 141 8.9. Progowanie obrazu 142 8.10. Usuwanie tła obrazu 145 8.11. Wykrywanie krawędzi 147 8.12. Wykrywanie narożników w obrazie 150 8.13. Tworzenie cech w uczeniu maszynowym 153 8.14. Użycie średniej koloru jako cechy 155 8.15. Użycie histogramu koloru jako cechy 157 9. Redukowanie wymiarowości za pomocą wyodrębniania cech 161 9.1. Redukowanie cech za pomocą głównych składowych 161 9.2. Redukowanie cech, gdy dane są liniowo nierozłączne 164 9.3. Redukowanie cech przez maksymalizację rozłączności klas 166 9.4. Redukowanie cech za pomocą rozkładu macierzy 169 9.5. Redukowanie cech w rzadkich danych 170 10. Redukcja wymiarowości za pomocą wyboru cech 173 10.1. Progowanie wariancji cechy liczbowej 173 10.2. Progowanie wariancji cechy binarnej 175 10.3. Obsługa wysoce skorelowanych cech 176 10.4. Usuwanie nieistotnych dla klasyfikacji cech 177 10.5. Rekurencyjne eliminowanie cech 179 11. Ocena modelu 183 11.1. Modele sprawdzianu krzyżowego 183 11.2. Tworzenie modelu regresji bazowej 186 11.3. Tworzenie modelu klasyfikacji bazowej 188 11.4. Ocena prognoz klasyfikatora binarnego 189 11.5. Ocena progowania klasyfikatora binarnego 192 11.6. Ocena prognoz klasyfikatora wieloklasowego 195 11.7. Wizualizacja wydajności klasyfikatora 197 11.8. Ocena modelu regresji 199 11.9. Ocena modelu klasteryzacji 201 11.10. Definiowanie niestandardowych współczynników oceny modelu 202 11.11. Wizualizacja efektu wywieranego przez wielkość zbioru uczącego 204 11.12. Tworzenie raportu tekstowego dotyczącego współczynnika oceny 206 11.13. Wizualizacja efektu wywieranego przez zmianę wartości hiperparametrów 207 12. Wybór modelu 211 12.1. Wybór najlepszych modeli przy użyciu wyczerpującego wyszukiwania 212 12.2. Wybór najlepszych modeli za pomocą przeszukiwania losowego 214 12.3. Wybór najlepszych modeli z wielu algorytmów uczenia maszynowego 216 12.4. Wybór najlepszych modeli na etapie przygotowywania danych 217 12.5. Przyspieszanie wyboru modelu za pomocą równoległości 219 12.6. Przyspieszanie wyboru modelu przy użyciu metod charakterystycznych dla algorytmu 220 12.7. Ocena wydajności po wyborze modelu 221 13. Regresja liniowa 225 13.1. Wyznaczanie linii 225 13.2. Obsługa wpływu interakcji 227 13.3. Wyznaczanie zależności nieliniowej 228 13.4. Redukowanie wariancji za pomocą regularyzacji 230 13.5. Redukowanie cech za pomocą regresji metodą LASSO 232 14. Drzewa i lasy 235 14.1. Trenowanie klasyfikatora drzewa decyzyjnego 235 14.2. Trenowanie regresora drzewa decyzyjnego 237 14.3. Wizualizacja modelu drzewa decyzyjnego 238 14.4. Trenowanie klasyfikatora losowego lasu 240 14.5. Testowanie regresora losowego lasu 241 14.6. Identyfikacja ważnych cech w losowych lasach 242 14.7. Wybór ważnych cech w losowym lesie 245 14.8. Obsługa niezrównoważonych klas 246 14.9. Kontrolowanie wielkości drzewa 247 14.10. Poprawa wydajności za pomocą wzmocnienia 248 14.11. Ocena losowego lasu za pomocą estymatora błędu out-of-bag 250 15. Algorytm k najbliższych sąsiadów 251 15.1. Wyszukiwanie najbliższych sąsiadów obserwacji 251 15.2. Tworzenie klasyfikatora k najbliższych sąsiadów 253 15.3. Ustalanie najlepszej wielkości sąsiedztwa 255 15.4. Tworzenie klasyfikatora najbliższych sąsiadów opartego na promieniu 256 16. Regresja logistyczna 259 16.1. Trenowanie klasyfikatora binarnego 259 16.2. Trenowanie klasyfikatora wieloklasowego 260 16.3. Redukcja wariancji poprzez regularyzację 262 16.4. Trenowanie klasyfikatora na bardzo dużych danych 263 16.5. Obsługa niezrównoważonych klas 264 17. Maszyna wektora nośnego 267 17.1. Trenowanie klasyfikatora liniowego 267 17.2. Obsługa liniowo nierozdzielnych klas przy użyciu funkcji jądra 270 17.3. Określanie prognozowanego prawdopodobieństwa 273 17.4. Identyfikacja wektorów nośnych 275 17.5. Obsługa niezrównoważonych klas 276 18. Naiwny klasyfikator bayesowski 279 18.1. Trenowanie klasyfikatora dla cech ciągłych 280 18.2. Trenowanie klasyfikatora dla cech dyskretnych lub liczebnych 282 18.3. Trenowanie naiwnego klasyfikatora bayesowskiego dla cech binarnych 283 18.4. Kalibrowanie prognozowanego prawdopodobieństwa 284 19. Klasteryzacja 287 19.1. Klasteryzacja za pomocą k średnich 287 19.2. Przyspieszanie klasteryzacji za pomocą k średnich 290 19.3. Klasteryzacja za pomocą algorytmu meanshift 290 19.4. Klasteryzacja za pomocą algorytmu DBSCAN 292 19.5. Klasteryzacja za pomocą łączenia hierarchicznego 293 20. Sieci neuronowe 295 20.1. Przygotowywanie danych dla sieci neuronowej 296 20.2. Projektowanie sieci neuronowej 297 20.3. Trenowanie klasyfikatora binarnego 300 20.4. Trenowanie klasyfikatora wieloklasowego 302 20.5. Trenowanie regresora 304 20.6. Generowanie prognoz 305 20.7. Wizualizacja historii trenowania 307 20.8. Redukcja nadmiernego dopasowania za pomocą regularyzacji wagi 310 20.9. Redukcja nadmiernego dopasowania za pomocą techniki wcześniejszego zakończenia procesu uczenia 311 20.10. Redukcja nadmiernego dopasowania za pomocą techniki porzucenia 313 20.11. Zapisywanie postępu modelu uczącego 315 20.12. K-krotny sprawdzian krzyżowy sieci neuronowej 316 20.13. Dostrajanie sieci neuronowej 318 20.14. Wizualizacja sieci neuronowej 320 20.15. Klasyfikacja obrazów 322 20.16. Poprawa wydajności przez modyfikację obrazu 325 20.17. Klasyfikowanie tekstu 327 21. Zapisywanie i wczytywanie wytrenowanych modeli 331 21.1. Zapisywanie i wczytywanie modelu biblioteki scikit-learn 331 21.2. Zapisywanie i wczytywanie modelu biblioteki Keras 332
Sygnatura czytelni BWEAiI: XII Ł 145
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148071 N (1 egz.)
Książka
W koszyku
Uczenie maszynowe : elementy matematyki w analizie danych / Leszek Albrzykowski. - Gliwice : Helion, copyright 2023. - 100, [4] strony : ilustracja, wykresy ; 21 cm.
Bibliografie, netografie przy rozdziałach.
Liniowe zależności danych Kowariancja Współczynnik korelacji Regresja liniowa Wnioskowanie bayesowskie Twierdzenie Bayesa Naiwny klasyfikator bayesowski Czynniki wpływające na wyniki modelu Propensity score matching Shapley value Detekcja anomalii Detekcja anomalii za pomocą z-score Detekcja anomalii za pomocą algorytmów klastrujących Algorytm Isolation Forest Ewaluacja modeli Ewaluacja modeli klasyfikacji Ewaluacja modeli regresji
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153864 N, 153865 N, 153863 N (3 egz.)
Książka
W koszyku
W książce także ISBN oryginału.
Dla programistów i menedżerów.
OKREŚLENIE WŁAŚCIWEGO PODEJŚCIA ML 1. Od pomysłu do podejścia ML Modele Dane Zarys edytora ML Spróbujmy wszystko zrobić za pomocą ML Najprostsze podejście: wykonanie algorytmu Etap pośredni: uczenie się na podstawie doświadczenia Jak wybierać projekty ML i określać ich priorytety - Monica Rogati 2. Opracowanie planu Mierzenie postępów Wydajność biznesowa Wydajność modelu Aktualność i przesunięcie rozkładu danych Szybkość Szacowanie zakresu i wyzwań Wykorzystanie doświadczenia w danej dziedzinie Podążanie za wielkimi Planowanie edytora ML Początkowy plan edytora Zawsze należy zaczynać od prostego modelu Sposób na systematyczne postępy - prosty początek Prosty początkowy proces Proces dla edytora ML BUDOWANIE PROCESU 3. Zbudowanie pierwszego całościowego procesu Najprostsza architektura Prototyp edytora ML Analizowanie i oczyszczanie danych Tokenizacja testu Generowanie cech Testowanie procesu Wrażenia użytkowników Modelowanie wyników Ocena prototypu edytora ML Model Wrażenia użytkowników 4. Pozyskiwanie początkowego zbioru danych Iterowanie zbioru danych Badanie danych Badanie pierwszego zbioru danych Bądź skuteczny, zacznij od czegoś małego Informacje i produkty Ocena jakości danych Etykiety i wyszukiwanie trendów Statystyki podsumowujące Efektywne badanie i znakowanie danych Wykonanie algorytmu Trendy danych Niech dane informują o cechach i modelach Budowanie cech na podstawie wzorców Cechy edytora ML Jak wyszukiwać, znakować i wykorzystywać dane - Robert Munro ITEROWANIE MODELI 5. Trening i ocena modelu Najprostszy, odpowiedni model Proste modele Od wzorców do modeli Podział zbioru danych Podział danych dla edytora ML Ocena wydajności Ocena modelu: nie tylko dokładność Porównywanie danych i prognoz Tablica pomyłek Krzywa ROC Krzywa kalibracyjna Redukcja wymiarowości w analizie błędów Metoda top-k Ocena ważności cech Ocena bezpośrednio z klasyfikatora Analiza czarnej skrzynki 6. Diagnozowanie problemów Dobre praktyki programowania Dobre praktyki w ML Diagnozowanie połączeń: wizualizacja i testy Testowanie kodu ML Diagnozowanie treningu Trudność zadania Problemy optymalizacyjne Diagnozowanie uogólnienia modelu Wyciek danych Nadmierne dopasowanie Analiza zadania 7. Przygotowywanie zaleceń przy użyciu klasyfikatora Wyodrębnianie zaleceń z modeli Co można osiągnąć bez modelu? Wyodrębnianie globalnych ważności cech Wykorzystanie ocen modelu Wyodrębnianie lokalnych ważności cech Porównanie modeli Wersja 1: karta raportu Wersja 2: lepszy, ale mniej czytelny model Wersja 3: zrozumiałe zalecenia Formułowanie zaleceń edycyjnych WDRAŻANIE I MONITOROWANIE MODELI 8. Wdrażanie modeli 1 Własność danych Zniekształcenie danych Zniekształcenia systemowe Modele Sprzężenie zwrotne Inkluzyjna wydajność modelu Kontekst Ataki Nadużycia i podwójne zastosowanie Eksperymenty wysyłkowe - Chris Harland Opcje wdrażania modeli Wdrożenie po stronie serwera Aplikacja strumieniowa, czyli interfejs API Prognozowanie wsadowe Wdrożenie po stronie klienta Model w urządzeniu Model w przeglądarce Uczenie federacyjne: podejście hybrydowe 10. Zabezpieczanie modelu Ochrona przed awariami Sprawdzanie danych wejściowych i wyjściowych Scenariusze awaryjne modelu Inżynieria wydajności Obsługa wielu użytkowników Zarządzanie cyklem życia modelu i danych Przetwarzanie danych i skierowany graf acykliczny Opinie użytkowników Wspieranie badaczy danych we wdrażaniu modeli - Chris Moody 11. Monitorowanie i aktualizowanie modeli Monitorowanie oszczędza kłopotów Informowanie o konieczności odświeżenia modelu Wykrywanie nadużyć Wskaźniki wydajności Wskaźniki biznesowe CI/CD w dziedzinie ML Testy A/B i eksperymenty
Sygnatura czytelni BWEAiI: XII E 125
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153862 N (1 egz.)
Książka
W koszyku
Indeks.
Wprowadzenie do algorytmów Czego nauczysz się o wydajności Czego nauczysz się o rozwiązywaniu problemów Wyszukiwanie binarne Lepszy sposób wyszukiwania Czas wykonywania Notacja dużego O Czas wykonywania algorytmów rośnie w różnym tempie Wizualizacja różnych czasów wykonywania Notacja dużego O określa czas działania w najgorszym przypadku Kilka typowych czasów wykonywania Problem komiwojażera Sortowanie przez wybieranie Jak działa pamięć Tablice i listy powiązane Listy powiązane Tablice Terminologia Wstawianie elementów w środku listy Usuwanie elementów Sortowanie przez wybieranie Rekurencja Przypadki podstawowy i rekurencyjny Stos Stos wywołań Stos wywołań z rekurencją Szybkie sortowanie "Dziel i rządź" Sortowanie szybkie Jeszcze raz o notacji dużego O Sortowanie przez scalanie a sortowanie szybkie Przypadki średni i najgorszy Tablice skrótów Funkcje obliczania skrótów Zastosowania tablic skrótów Przeszukiwanie tablic skrótów Zapobieganie powstawaniu duplikatów elementów Tablice skrótów jako pamięć podręczna Powtórzenie wiadomości Kolizje Wydajność Współczynnik zapełnienia Dobra funkcja obliczania skrótów Przeszukiwanie wszerz Wprowadzenie do grafów Czym jest graf Wyszukiwanie wszerz Szukanie najkrótszej drogi Kolejki Implementacja grafu Implementacja algorytmu Czas wykonywania Algorytm Dijkstry Posługiwanie się algorytmem Dijkstry Terminologia Szukanie funduszy na fortepian Krawędzie o wadze ujemnej Implementacja Algorytmy zachłanne Plan zajęć w sali lekcyjnej Problem plecaka Problem pokrycia zbioru Algorytmy aproksymacyjne Problemy NP-zupełne Problem komiwojażera krok po kroku Trzy miasta Cztery miasta Jak rozpoznać, czy problem jest NP-zupełny Programowanie dynamiczne Problem plecaka Proste rozwiązanie Programowanie dynamiczne Pytania dotyczące problemu plecaka Co się dzieje, gdy zostanie dodany element Jaki będzie skutek zmiany kolejności wierszy Czy siatkę można wypełniać wg kolumn zamiast wierszy Co się stanie, gdy doda się mniejszy element Czy można ukraść ułamek przedmiotu Optymalizacja planu podróży Postępowanie z wzajemnie zależnymi przedmiotami Czy możliwe jest, aby rozwiązanie wymagało więcej niż dwóch podplecaków Czy najlepsze rozwiązanie zawsze oznacza całkowite zapełnienie plecaka? Najdłuższa wspólna część łańcucha Przygotowanie siatki Wypełnianie siatki Najdłuższa wspólna podsekwencja Najdłuższa wspólna podsekwencja - rozwiązanie K najbliższych sąsiadów Klasyfikacja pomarańczy i grejpfrutów Budowa systemu rekomendacji Wybór cech Regresja Wybieranie odpowiednich cech Wprowadzenie do uczenia maszynowego Optyczne rozpoznawanie znaków Budowa filtra spamu Przewidywanie cen akcji Co dalej Drzewa Odwrócone indeksy Transformata Fouriera Algorytmy równoległe MapReduce Do czego nadają się algorytmy rozproszone Funkcja map Funkcja reduce Filtry Blooma i HyperLogLog Filtry Blooma HyperLogLog Algorytmy SHA Porównywanie plików Sprawdzanie haseł Locality-sensitive hashing Wymiana kluczy Diffiego-Hellmana Programowanie liniowe
Sygnatura czytelni BWEAiI: XII A 71
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 145346 (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 145345 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Mastering machine learning algorithms.
Na okładce nazwa wydawcy oryginału: Packt.
Na książce także ISBN oryginału: 9781788621113.
Indeks.
Rozdział 1. Podstawy modelu uczenia maszynowego 19 Modele a dane 20 Środkowanie i wybielanie 21 Zbiory uczące i walidacyjne 24 Cechy modelu uczenia maszynowego 29 Pojemność modelu 29 Obciążenie estymatora 32 Wariancja estymatora 35 Funkcje straty i kosztu 39 Przykładowe funkcje kosztu 43 Regularyzacja 45 Rozdział 2. Wprowadzenie do uczenia półnadzorowanego 51 Uczenie półnadzorowane 52 Uczenie transdukcyjne 53 Uczenie indukcyjne 53 Założenia w uczeniu półnadzorowanym 53 Generatywne mieszaniny gaussowskie 56 Przykład generatywnej mieszaniny gaussowskiej 58 Algorytm kontrastowy pesymistycznego szacowania wiarygodności 63 Przykład zastosowania algorytmu CPLE 65 Półnadzorowane maszyny wektorów nośnych (S3VM) 68 Przykładowy algorytm maszyny S3VM 71 Transdukcyjne maszyny wektorów nośnych 76 Przykład maszyny TSVM 77 Rozdział 3. Uczenie półnadzorowane bazujące na grafach 85 Propagacja etykiet 86 Przykład zastosowania algorytmu propagacji etykiet 89 Propagacja etykiet w bibliotece Scikit-Learn 91 Rozprzestrzenianie etykiet 94 Przykład zastosowania algorytmu rozprzestrzeniania etykiet 95 Propagacja etykiet na bazie błądzenia losowego Markowa 97 Przykład propagacji etykiet na podstawie błądzenia losowego Markowa 98 Uczenie rozmaitościowe 101 Algorytm Isomap 102 Osadzanie lokalnie liniowe 106 Osadzanie widmowe Laplace'a 109 Algorytm t-SNE 111 Rozdział 4. Sieci bayesowskie i ukryte modele Markowa 115 Prawdopodobieństwa warunkowe i twierdzenie Bayesa 116 Sieci bayesowskie 118 Próbkowanie w sieci bayesowskiej 119 Przykład próbkowania za pomocą biblioteki PyMC3 129 Ukryte modele Markowa 133 Algorytm wnioskowania ekstrapolacyjno-interpolacyjnego 134 Algorytm Viterbiego 141 Rozdział 5. Algorytm EM i jego zastosowania 145 Uczenie metodami MLE i MAP 146 Algorytm EM 148 Przykład szacowania parametrów 151 Mieszanina gaussowska 154 Przykład implementacji algorytmu mieszanin gaussowskich w bibliotece Scikit-Learn 157 Analiza czynnikowa (FA) 159 Przykład zastosowania analizy czynnikowej w bibliotece Scikit-Learn 164 Analiza głównych składowych (PCA) 167 Przykład zastosowania analizy PCA w bibliotece Scikit-Learn 173 Analiza składowych niezależnych (ICA) 175 Przykładowa implementacja algorytmu FastICA w bibliotece Scikit-Learn 178 Jeszcze słowo o ukrytych modelach Markowa 180 Rozdział 6. Uczenie hebbowskie i mapy samoorganizujące 183 Reguła Hebba 184 Analiza reguły kowariancji 188 Stabilizacja wektora wag i reguła Oji 192 Sieć Sangera 193 Przykład zastosowania sieci Sangera 196 Sieć Rubnera-Tavana 199 Przykład zastosowania sieci Rubnera-Tavana 203 Mapy samoorganizujące 205 Przykład zastosowania mapy SOM 208 Rozdział 7. Algorytmy klasteryzacji 213 Algorytm k-najbliższych sąsiadów 213 Drzewa KD 217 Drzewa kuliste 218 Przykład zastosowania algorytmu KNN w bibliotece Scikit-Learn 220 Algorytm centroidów 223 Algorytm k-means++ 225 Przykład zastosowania algorytmu centroidów w bibliotece Scikit-Learn 227 Algorytm rozmytych c-średnich 235 Przykład zastosowania algorytmu rozmytych c-średnich w bibliotece Scikit-Fuzzy 239 Klasteryzacja widmowa 242 Przykład zastosowania klasteryzacji widmowej w bibliotece Scikit-Learn 246 Rozdział 8. Uczenie zespołowe 249 Podstawy uczenia zespołów 249 Lasy losowe 251 Przykład zastosowania lasu losowego w bibliotece Scikit-Learn 257 Algorytm AdaBoost 260 AdaBoost.SAMME 264 AdaBoost.SAMME.R 266 AdaBoost.R2 268 Przykład zastosowania algorytmu AdaBoost w bibliotece Scikit-Learn 271 Wzmacnianie gradientowe 275 Przykład wzmacniania gradientowego drzew w bibliotece Scikit-Learn 279 Zespoły klasyfikatorów głosujących 282 Przykład zastosowania klasyfikatorów głosujących 283 Uczenie zespołowe jako technika doboru modeli 285 Rozdział 9. Sieci neuronowe w uczeniu maszynowym 287 Podstawowy sztuczny neuron 288 Perceptron 289 Przykład zastosowania perceptronu w bibliotece Scikit-Learn 292 Perceptrony wielowarstwowe 295 Funkcje aktywacji 296 Algorytm propagacji wstecznej 299 Przykład zastosowania sieci MLP w bibliotece Keras 307 Algorytmy optymalizacji 311 Perturbacja gradientu 312 Algorytmy momentum i Nesterova 312 RMSProp 313 Adam 315 AdaGrad 316 AdaDelta 317 Regularyzacja i porzucanie 318 Porzucanie 320 Normalizacja wsadowa 326 Przykład zastosowania normalizacji wsadowej w bibliotece Keras 328 Rozdział 10. Zaawansowane modele neuronowe 333 Głębokie sieci splotowe 334 Operacje splotu 335 Warstwy łączące 344 Inne przydatne warstwy 347 Przykłady stosowania głębokich sieci splotowych w bibliotece Keras 348 Sieci rekurencyjne 356 Algorytm propagacji wstecznej w czasie (BPTT) 357 Jednostki LSTM 360 Jednostki GRU 365 Przykład zastosowania sieci LSTM w bibliotece Keras 367 Uczenie transferowe 371 Rozdział 11. Autokodery 375 Autokodery 375 Przykład głębokiego autokodera splotowego w bibliotece TensorFlow 377 Autokodery odszumiające 381 Autokodery rzadkie 384 Autokodery wariacyjne 386 Przykład stosowania autokodera wariacyjnego w bibliotece TensorFlow 389 Rozdział 12. Generatywne sieci przeciwstawne 393 Uczenie przeciwstawne 393 Przykład zastosowania sieci DCGAN w bibliotece TensorFlow 397 Sieć Wassersteina (WGAN) 403 Przykład zastosowania sieci WGAN w bibliotece TensorFlow 405 Rozdział 13. Głębokie sieci przekonań 409 Losowe pola Markowa 410 Ograniczone maszyny Boltzmanna 411 Sieci DBN 415 Przykład stosowania nienadzorowanej sieci DBN w środowisku Python 417 Przykład stosowania nadzorowanej sieci DBN w środowisku Python 420 Rozdział 14. Wstęp do uczenia przez wzmacnianie 423 Podstawowe terminy w uczeniu przez wzmacnianie 423 Środowisko 425 Polityka 429 Iteracja polityki 430 Iteracja polityki w środowisku szachownicy 434 Iteracja wartości 438 Iteracja wartości w środowisku szachownicy 439 Algorytm TD(0) 442 Algorytm TD(0) w środowisku szachownicy 445 Rozdział 15. Zaawansowane algorytmy szacowania polityki 451 Algorytm TD(λ) 452 Algorytm TD(λ) w bardziej skomplikowanym środowisku szachownicy 456 Algorytm aktor-krytyk TD(0) w środowisku szachownicy 462 Algorytm SARSA 467 Algorytm SARSA w środowisku szachownicy 469 Q-uczenie 472 Algorytm Q-uczenia w środowisku szachownicy 473 Algorytm Q-uczenia za pomocą sieci neuronowej 475
Sygnatura czytelni BWEAiI: XII Ł 227
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148489 N (1 egz.)
Brak okładki
Książka
W koszyku
Bibliogr., netogr., wykaz norm s. 284-285.
Dla kadnydatów na operatorów oraz osób zainteresowanych obrabiarkami CNC.
Sygnatura czytelni BMW: VII S 124 (nowy)
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. M 13838 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Deep learning with Python.
Indeks.
Dla zainteresowanych nauką zagadnień związanych z uczeniem głębokim od podstaw, a także dla wszystkich chcących poszerzyć swoją wiedzę na temat uczenia głębokiego - analityków, programistów, studentów.
CZĘŚĆ I. PODSTAWY UCZENIA GŁĘBOKIEGO 19 Rozdział 1. Czym jest uczenie głębokie? 21 1.1. Sztuczna inteligencja, uczenie maszynowe i uczenie głębokie 22 1.1.1. Sztuczna inteligencja 22 1.1.2. Uczenie maszynowe 22 1.1.3. Formy danych umożliwiające uczenie 24 1.1.4. "Głębia" uczenia głębokiego 26 1.1.5. Działanie uczenia głębokiego przedstawione na trzech rysunkach 27 1.1.6. Co dotychczas osiągnięto za pomocą uczenia głębokiego? 29 1.1.7. Nie wierz w tymczasową popularność 30 1.1.8. Nadzieje na powstanie sztucznej inteligencji 31 1.2. Zanim pojawiło się uczenie głębokie: krótka historia uczenia maszynowego 32 1.2.1. Modelowanie probabilistyczne 32 1.2.2. Wczesne sieci neuronowe 33 1.2.3. Metody jądrowe 33 1.2.4. Drzewa decyzyjne, lasy losowe i gradientowe wzmacnianie maszyn 35 1.2.5. Powrót do sieci neuronowych 35 1.2.6. Co wyróżnia uczenie głębokie? 36 1.2.7. Współczesne uczenie maszynowe 37 1.3. Dlaczego uczenie głębokie? Dlaczego teraz? 38 1.3.1. Sprzęt 38 1.3.2. Dane 39 1.3.3. Algorytmy 40 1.3.4. Nowa fala inwestycji 40 1.3.5. Demokratyzacja uczenia głębokiego 41 Rozdział 2. Matematyczne podstawy sieci neuronowych 43 2.1. Pierwszy przykład sieci neuronowej 44 2.2. Reprezentacja danych sieci neuronowych 47 2.2.1. Skalary (tensory zerowymiarowe) 48 2.2.2. Wektory (tensory jednowymiarowe) 48 2.2.3. Macierze (tensory dwuwymiarowe) 48 2.2.4. Trójwymiarowe tensory i tensory o większej liczbie wymiarów 49 2.2.5. Główne atrybuty 49 2.2.6. Obsługa tensorów R 50 2.2.7. Wsad danych 50 2.2.8. Prawdziwe przykłady tensorów danych 51 2.2.9. Dane wektorowe 51 2.2.10. Dane szeregu czasowego i dane sekwencyjne 52 2.2.11. Dane w postaci obrazów 52 2.2.12. Materiały wideo 53 2.3. Koła zębate sieci neuronowych: operacje na tensorach 53 2.3.1. Operacje wykonywane element po elemencie 54 2.3.2. Operacje na tensorach o różnych wymiarach 55 2.3.3. Iloczyn tensorowy 55 2.3.4. Zmiana kształtu tensora 57 2.3.5. Geometryczna interpretacja operacji tensorowych 58 2.3.6. Interpretacja geometryczna uczenia głębokiego 59 2.4. Silnik sieci neuronowych: optymalizacja gradientowa 60 2.4.1. Czym jest pochodna? 61 2.4.2. Pochodna operacji tensorowej: gradient 62 2.4.3. Stochastyczny spadek wzdłuż gradientu 63 2.4.4. Łączenie pochodnych: algorytm propagacji wstecznej 66 2.5. Ponowna analiza pierwszego przykładu 67 Rozdział 3. Rozpoczynamy korzystanie z sieci neuronowych 71 3.1. Anatomia sieci neuronowej 72 3.1.1. Warstwy: podstawowe bloki konstrukcyjne uczenia głębokiego 72 3.1.2. Modele: sieci warstw 73 3.1.3. Funkcja straty i optymalizatory: najważniejsze elementy konfiguracji procesu uczenia 74 3.2. Wprowadzenie do pakietu Keras 75 3.2.1. Keras, TensorFlow, Theano i CNTK 76 3.2.2. Instalowanie pakietu Keras 77 3.2.3. Praca z pakietem Keras: krótkie wprowadzenie 77 3.3. Przygotowanie stacji roboczej do uczenia głębokiego 79 3.3.1. Dwie opcje uruchamiania pakietu Keras 79 3.3.2. Wady i zalety uruchamiania uczenia głębokiego w chmurze 80 3.3.3. Jaki procesor graficzny najlepiej nadaje się do uczenia głębokiego? 80 3.4. Przykład klasyfikacji binarnej: klasyfikacja recenzji filmów 81 3.4.1. Zbiór danych IMDB 81 3.4.2. Przygotowywanie danych 82 3.4.3. Budowa sieci neuronowej 83 3.4.4. Walidacja modelu 87 3.4.5. Używanie wytrenowanej sieci do generowania przewidywań dotyczących nowych danych 90 3.4.6. Dalsze eksperymenty 90 3.4.7. Wnioski 91 3.5. Przykład klasyfikacji wieloklasowej: klasyfikacja krótkich artykułów prasowych 91 3.5.1. Zbiór danych Agencji Reutera 91 3.5.2. Przygotowywanie danych 93 3.5.3. Budowanie sieci 93 3.5.4. Walidacja modelu 94 3.5.5. Generowanie przewidywań dotyczących nowych danych 96 3.5.6. Inne sposoby obsługi etykiet i funkcji straty 97 3.5.7. Dlaczego warto tworzyć odpowiednio duże warstwy pośrednie? 97 3.5.8. Dalsze eksperymenty 98 3.5.9. Wnioski 98 3.6. Przykład regresji: przewidywanie cen mieszkań 99 3.6.1. Zbiór cen mieszkań w Bostonie 99 3.6.2. Przygotowywanie danych 100 3.6.3. Budowanie sieci 100 3.6.4. K-składowa walidacja krzyżowa 101 3.6.5. Wnioski 105 Rozdział 4. Podstawy uczenia maszynowego 107 4.1. Cztery rodzaje uczenia maszynowego 108 4.1.1. Uczenie nadzorowane 108 4.1.2. Uczenie nienadzorowane 108 4.1.3. Uczenie częściowo nadzorowane 109 4.1.4. Uczenie przez wzmacnianie 109 4.2. Ocena modeli uczenia maszynowego 109 4.2.1. Zbiory treningowe, walidacyjne i testowe 111 4.2.2. Rzeczy, o których warto pamiętać 114 4.3. Wstępna obróbka danych, przetwarzanie cech i uczenie cech 114 4.3.1. Przygotowywanie danych do przetwarzania przez sieci neuronowe 115 4.3.2. Przetwarzanie cech 116 4.4. Nadmierne dopasowanie i zbyt słabe dopasowanie 118 4.4.1. Redukcja rozmiaru sieci 119 4.4.2. Dodawanie regularyzacji wag 121 4.4.3. Porzucanie - technika dropout 123 4.5. Uniwersalny przepływ roboczy uczenia maszynowego 125 4.5.1. Definiowanie problemu i przygotowywanie zbioru danych 125 4.5.2. Wybór miary sukcesu 126 4.5.3. Określanie techniki oceny wydajności modelu 127 4.5.4. Przygotowywanie danych 127 4.5.5. Tworzenie modeli lepszych od linii bazowej 128 4.5.6. Skalowanie w górę: tworzenie modelu, który ulega nadmiernemu dopasowaniu 129 4.5.7. Regularyzacja modelu i dostrajanie jego hiperparametrów 129 CZĘŚĆ II. UCZENIE GŁĘBOKIE W PRAKTYCE 131 Rozdział 5. Uczenie głębokie i przetwarzanie obrazu 133 5.1. Wprowadzenie do konwolucyjnych sieci neuronowych 134 5.1.1. Działanie sieci konwolucyjnej 136 5.1.2. Operacja max-pooling 141 5.2. Trenowanie konwolucyjnej sieci neuronowej na małym zbiorze danych 143 5.2.1. Stosowanie uczenia głębokiego w problemach małych zbiorów danych 144 5.2.2. Pobieranie danych 144 5.2.3. Budowa sieci neuronowej 147 5.2.4. Wstępna obróbka danych 148 5.2.5. Stosowanie techniki augmentacji danych 151 5.3. Korzystanie z wcześniej wytrenowanej konwolucyjnej sieci neuronowej 155 5.3.1. Ekstrakcja cech 155 5.3.2. Dostrajanie 163 5.4. Wizualizacja efektów uczenia konwolucyjnych sieci neuronowych 168 5.4.1. Wizualizacja pośrednich aktywacji 169 5.4.2. Wizualizacja filtrów konwolucyjnych sieci neuronowych 175 5.4.3. Wizualizacja map ciepła aktywacji klas 181 Rozdział 6. Uczenie głębokie w przetwarzaniu tekstu i sekwencji 187 6.1. Praca z danymi tekstowymi 188 6.1.1. Kodowanie słów i znaków metodą gorącej jedynki 189 6.1.2. Osadzanie słów 192 6.1.3. Łączenie wszystkich technik: od surowego tekstu do osadzenia słów 197 6.1.4. Wnioski 203 6.2. Rekurencyjne sieci neuronowe 203 6.2.1. Warstwa rekurencyjna w pakiecie Keras 206 6.2.2. Warstwy LSTM i GRU 209 6.2.3. Przykład warstwy LSTM zaimplementowanej w pakiecie Keras 212 6.3. Zaawansowane zastosowania rekurencyjnych sieci neuronowych 214 6.3.1. Problem prognozowania temperatury 214 6.3.2. Przygotowywanie danych 217 6.3.3. Punkt odniesienia w postaci zdrowego rozsądku 220 6.3.4. Podstawowe rozwiązanie problemu przy użyciu techniki uczenia maszynowego 221 6.3.5. Punkt odniesienia w postaci pierwszego modelu rekurencyjnego 223 6.3.6. Stosowanie rekurencyjnego porzucania w celu zmniejszenia nadmiernego dopasowania 225 6.3.7. Tworzenie stosów warstw rekurencyjnych 226 6.3.8. Korzystanie z dwukierunkowych rekurencyjnych sieci neuronowych 228 6.3.9. Kolejne rozwiązania 232 6.4. Konwolucyjne sieci neuronowe i przetwarzanie sekwencji 234 6.4.1. Przetwarzanie sekwencji za pomocą jednowymiarowej sieci konwolucyjnej 234 6.4.2. Jednowymiarowe łączenie danych sekwencyjnych 235 6.4.3. Implementacja jednowymiarowej sieci konwolucyjnej 235 6.4.4. Łączenie sieci konwolucyjnych i rekurencyjnych w celu przetworzenia długich sekwencji 237 Rozdział 7. Najlepsze zaawansowane praktyki uczenia głębokiego 245 7.1. Funkcjonalny interfejs programistyczny pakietu Keras: wykraczanie poza model sekwencyjny 246 7.1.1. Wprowadzenie do funkcjonalnego interfejsu API 247 7.1.2. Modele z wieloma wejściami 249 7.1.3. Modele z wieloma wyjściami 251 7.1.4. Skierowane acykliczne grafy warstw 254 7.1.5. Udostępnianie wag warstwy 258 7.1.6. Modele pełniące funkcję warstw 259 7.2. Monitorowanie modeli uczenia głębokiego przy użyciu wywołań zwrotnych pakietu Keras i narzędzia TensorBoard 260 7.2.1. Używanie wywołań zwrotnych w celu sterowania procesem trenowania modelu 260 7.2.2. Wprowadzenie do TensorBoard - platformy wizualizacji danych pakietu TensorFlow 264 7.3. Korzystanie z pełni możliwości modeli 268 7.3.1. Konstrukcja zaawansowanych architektur 269 7.3.2. Optymalizacja hiperparametru 272 7.3.3. Składanie modeli 274 Rozdział 8. Stosowanie uczenia głębokiego w celu generowania danych 279 8.1. Generowanie tekstu za pomocą sieci LSTM 281 8.1.1. Krótka historia generatywnych sieci rekurencyjnych 281 8.1.2. Generowanie danych sekwencyjnych 282 8.1.3. Dlaczego strategia próbkowania jest ważna? 282 8.1.4. Implementacja algorytmu LSTM generującego tekst na poziomie liter 285 8.2. DeepDream 290 8.2.1. Implementacja algorytmu DeepDream w pakiecie Keras 291 8.2.2. Wnioski 296 8.3. Neuronowy transfer stylu 297 8.3.1. Strata treści 298 8.3.2. Strata stylu 298 8.3.3. Implementacja neuronowego transferu stylu przy użyciu pakietu Keras 299 8.4. Generowanie obrazów przy użyciu wariacyjnych autoenkoderów 306 8.4.1. Próbkowanie z niejawnej przestrzeni obrazów 306 8.4.2. Wektory koncepcyjne używane podczas edycji obrazu 307 8.4.3. Wariacyjne autoenkodery 308 8.5. Wprowadzenie do generatywnych sieci z przeciwnikiem 315 8.5.1. Schematyczna implementacja sieci GAN 316 8.5.2. Zbiór przydatnych rozwiązań 317 8.5.3. Generator 318 8.5.4. Dyskryminator 319 8.5.5. Sieć z przeciwnikiem 320 8.5.6. Trenowanie sieci DCGAN 320 Rozdział 9. Wnioski 325 9.1. Przypomnienie najważniejszych koncepcji 326 9.1.1. Sztuczna inteligencja 326 9.1.2. Co sprawia, że uczenie głębokie to wyjątkowa dziedzina uczenia maszynowego? 326 9.1.3. Jak należy traktować uczenie głębokie? 327 9.1.4. Najważniejsze technologie 328 9.1.5. Uniwersalny przepływ roboczy uczenia maszynowego 329 9.1.6. Najważniejsze architektury sieci 330 9.1.7. Przestrzeń możliwości 334 9.2. Ograniczenia uczenia głębokiego 336 9.2.1. Ryzyko antropomorfizacji modeli uczenia maszynowego 337 9.2.2. Lokalne uogólnianie a ekstremalne uogólnianie 339 9.3. Przyszłość uczenia głębokiego 341 9.3.1. Modele jako programy 342 9.3.2. Wykraczanie poza algorytm propagacji wstecznej i warstwy różniczkowalne 343 9.3.3. Zautomatyzowane uczenie maszynowe 344 9.3.4. Nieustanne uczenie się i wielokrotne używanie modułowych procedur składowych 345 9.3.5. Przewidywania dotyczące dalekiej przyszłości 346 9.4. Bycie na bieżąco z nowościami związanymi z szybko rozwijającą się dziedziną 348 9.4.1. Zdobywaj wiedzę praktyczną, pracując z prawdziwymi problemami przedstawianymi w serwisie Kaggle 348 9.4.2. Czytaj o nowych rozwiązaniach w serwisie arXiv 348 9.4.3. Eksploruj ekosystem związany z pakietem Keras 349 9.5. Ostatnie słowa 349 Dodatek A. Instalowanie pakietu Keras i innych bibliotek niezbędnych do jego działania w systemie Ubuntu 353 Dodatek B. Uruchamianie kodu w środowisku RStudio Server przy użyciu zdalnej instancji procesora graficznego EC2 359
Sygnatura czytelni BWEAiI: XII Ł 130
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 147414 N (1 egz.)
Brak okładki
Książka
W koszyku
Bibliogr. s. [863]-879.
Sygnatura czytelni BWEAiI: XII F 61
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 100757, 106906 (2 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 100400 N (1 egz.)
Książka
W koszyku
(O'Reilly)
U góry okł.: Wyciągnij najlepsze wnioski z dostępnych danych!
Bibliogr. s. 274-275. Indeks.
Sygnatura czytelni BWEAiI: XII E 83
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 139410 N (1 egz.)
Książka
W koszyku
Matematyka w uczeniu maszynowym / Marc Peter Deisenroth, A. Aldo Faisal, Cheng Soon Ong ; przekład: Filip Kamiński. - Gliwice : Helion, copyright 2022. - 416 stron : fotografie, ilustracje, wykresy ; 23 cm.
Bibliografia, netografia na stronach 405-416.
Algebra liniowa Układy równań liniowych Macierze Rozwiązywanie układów równań liniowych Przestrzenie wektorowe Niezależność liniowa Baza i rząd Przekształcenia liniowe Przestrzenie afiniczne Geometria analityczna Normy Iloczyny wewnętrzne Długości i odległości Kąty i ortogonalność Baza ortonormalna Dopełnienie ortogonalne Iloczyn wewnętrzny funkcji Rzuty ortogonalne Rozkłady macierzy Wyznacznik i ślad Wartości i wektory własne Rozkład Choleskiego Rozkład według wartości własnych i diagonalizacja Rozkład według wartości osobliwych Przybliżenie macierzy Filogeneza macierzy Rachunek wektorowy Różniczkowanie funkcji jednowymiarowych Pochodne cząstkowe i gradienty Gradienty funkcji o wartościach wektorowych Gradienty macierzy Tożsamości przydatne w obliczeniach gradientów Propagacja wsteczna i różniczkowanie automatyczne Pochodne wyższych rzędów Linearyzacja i wielowymiarowe szeregi Taylora Prawdopodobieństwo i jego rozkłady Struktura przestrzeni prawdopodobieństwa Prawdopodobieństwo ciągłe i dyskretne Reguły dodawania i mnożenia oraz twierdzenie Bayesa Statystyki podsumowujące i niezależność Rozkład Gaussa Sprzężenie i rodzina wykładnicza Zmiana zmiennych/przekształcenie odwrotne Optymalizacja ciągła Optymalizacja za pomocą metody gradientu prostego Optymalizacja z ograniczeniami i mnożniki Lagrange'a Optymalizacja wypukła Centralne problemy uczenia maszynowego Gdy model spotyka dane Dane, modele i uczenie Minimalizacja ryzyka empirycznego Estymacja parametrów Modelowanie probabilistyczne i wnioskowanie Modele digrafowe Wybór modelu Regresja liniowa Sformułowanie problemu Estymacja parametrów Bayesowska regresja liniowa Estymacja metodą maksymalnej wiarygodności jako rzut ortogonalny Redukcja wymiarowości za pomocą analizy głównych składowych Sformułowanie problemu Perspektywa maksymalizacji wariancji Perspektywa rzutowania Znajdowanie wektora własnego i aproksymacja za pomocą macierzy niskiego rzędu PCA w dużej liczbie wymiarów Najważniejsze kroki algorytmu PCA z praktycznego punktu widzenia Perspektywa zmiennej ukrytej Szacowanie gęstości za pomocą modeli mieszanin rozkładów Gaussa Model mieszaniny rozkładów Gaussa Uczenie parametrów za pomocą metody maksymalnej wiarygodności Algorytm EM Perspektywa zmiennej ukrytej Klasyfikacja za pomocą maszyny wektorów nośnych Hiperpłaszczyzny rozdzielające Pierwotna maszyna wektorów nośnych Dualna maszyna wektorów nośnych Jądra Rozwiązanie numeryczne
Sygnatura czytelni BWEAiI: XII L 50
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153032 (1 egz.)
Brak okładki
Książka
W koszyku
Tytuł oryginału: Introducing machine learning, 2020
Na okładce: Professional oraz nazwa wydawcy oryginału: Microsoft.
Indeks.
Dla programistów chcących zdobyć umiejętnośći z zakresu analizy danych, jak i dla analityków danych, którzy chcą zdobyć odpowiednie umiejętnści programistyczne.
Część I Podstawy uczenia maszynowego Jak uczą się ludzie Ku myślącym maszynom Świt rozumowania mechanicznego Twierdzenia Godła o niekompletności Formalizacja maszyn liczących Formalizacja ludzkiego myślenia Narodziny sztucznej inteligencji jako dyscypliny Biologia uczenia się Czym właściwie jest inteligentne oprogramowanie? Jak działają neurony Podejście kija i marchewki Przystosowywanie się do zmian Sztuczne formy inteligencji Prymitywna inteligencja Systemy eksperckie Systemy autonomiczne Sztuczne formy sentymentu Inteligentne oprogramowanie Stosowana sztuczna inteligencja Ewolucja inteligencji oprogramowania Systemy eksperckie Ogólna sztuczna inteligencja Uczenie nienadzorowane Uczenie nadzorowane Problemy z odwzorowywaniem i algorytmy Podstawowe problemy Klasyfikowanie obiektów Przewidywanie wyników Grupowanie obiektów Bardziej złożone problemy Klasyfikacja obrazów Wykrywanie obiektów Analiza tekstu Zautomatyzowane uczenie maszynowe Aspekty platformy AutoML Korzystanie z platformy AutoML Model Builder Ogólne kroki rozwiązania uczenia maszynowego Zbieranie danych Kultura firmy sterowana danymi Opcje magazynu Przygotowanie danych Podnoszenie jakości danych Czyszczenie danych Inżynieria cech Finalizowanie treningowego zbioru danych Wybieranie i trenowanie modelu Ściągawka z algorytmów Przypadek sieci neuronowych Ewaluacja wydajności modelu Wdrażanie modelu Wybór odpowiedniej platformy hostingowej Eksponowanie API Czynnik danych Jakość danych Ważność danych Zbieranie danych Integralność danych Kompletność Unikatowość Terminowość Dokładność Spójność Kim właściwie jest analityk danych? Praca analityka danych Przybornik analityka danych Analitycy danych i programiści Część II Uczenie maszynowe w .NET Sposób .NET Dlaczego (nie) Python? Dlaczego Python jest tak popularny w uczeniu maszynowym? Taksonomia bibliotek Pythona wykorzystywanych w uczeniu maszynowym Kompleksowe rozwiązania wykorzystujące modele Pythona Wstęp doML.NET Tworzenie i używanie modeli w MLNET Elementy kontekstu uczenia Implementacja potoku MLNET Dane początkowe Eksploracja zbioru danych Stosowanie typowych transformacji danych Uwarunkowania zbioru danych Etap treningowy Wybór algorytmu Pomiar rzeczywistej wartości algorytmu Planowanie fazy testowej Rzut oka na miary Przewidywanie cen z poziomu aplikacji klienckiej Pobieranie pliku modelu Konfigurowanie aplikacji ASP.NET Przewidywanie opłat za przejazd taksówką Opracowanie odpowiedniego interfejsu użytkownika Wątpliwości dotyczące danych i podejścia do problemu Zadania i algorytmy ML.NET Ogólna architektura ML.NET Wykorzystywane typy i interfejsy Reprezentacja danych Obsługiwane katalogi Zadania klasyfikacji Klasyfikacja binarna Klasyfikacja wieloklasowa Zadania grupowania w klastry Przygotowanie danych do pracy Trenowanie modelu Ocena modelu Przeniesienie uczenia Etapy tworzenia klasyfikatora obrazów Stosowanie niezbędnych transformacji danych Tworzenie i trenowanie modelu Dodatkowe uwagi o przeniesieniu uczenia Część III Podstawy uczenia płytkiego Matematyczne podstawy uczenia maszynowego Pod parasolem statystyki Średnia w statystyce Dominanta w statystyce Mediana w statystyce Obciążenie i wariancja Wariancja w statystyce Obciążenie w statystyce Reprezentacja danych Podsumowanie pięcioliczbowe Histogramy Wykresy punktowe Macierze wykresu punktowego Tworzenie wykresu na odpowiedniej skali Miary uczenia maszynowego Statystyka a uczenie maszynowe Ostateczny cel uczenia maszynowego Od modeli statystycznych do modeli uczenia maszynowego Ocena modelu uczenia maszynowego Od zbioru danych do prognoz Mierzenie precyzji modelu Przygotowanie danych do przetwarzania Skalowanie Standaryzacja Normalizacja Proste prognozy: Regresja liniowa Problem Zgadywanie wyników na podstawie danych Tworzenie hipotez o relacji Algorytm liniowy Ogólna idea Znajdowanie funkcji straty Algorytm najmniejszych kwadratów Algorytm spadku gradientu Jak dobry jest algorytm? Ulepszanie rozwiązania Trasa wielomianowa Regularyzacja Złożone przewidywania i decyzje: drzewa Problem Czym właściwie jest drzewo? Drzewa w uczeniu maszynowym Przykładowy algorytm oparty na drzewie Zasady projektowania algorytmów opartych na drzewach Drzewa decyzyjne a systemy eksperckie Odmiany algorytmów opartych na drzewach Drzewa klasyfikacyjne Działanie algorytmu CART Algorytm ID3 Drzewa regresji Działanie algorytmu Przycinanie drzewa Jak podejmować lepsze decyzje: metody grupowe Problem Technika bagging Algorytmy lasów losowych Kroki algorytmów Zalety i wady Technika wzmacniania (boosting) Możliwości wzmacniania Wzmacnianie gradientowe Zalety i wady Metody probabilistyczne: naiwny klasyfikator bayesowski Szybkie wprowadzenie do statystyki bayesowskiej Wstęp do prawdopodobieństwa Bayesa Wstęp do notacji Twierdzenie Bayesa Praktyczny przykład recenzji kodu Wykorzystanie statystyki bayesowskiej w klasyfikacji Wstępne sformułowanie problemu Uproszczone (lecz skuteczne) sformułowanie Praktyczne aspekty klasyfikatorów bayesowskich Naiwne klasyfikatory bayesowskie Ogólny algorytm Wielomianowy naiwny klasyfikator bayesowski Naiwny klasyfikator bayesowski Bernoulliego Naiwny klasyfikator bayesowski Gaussa Naiwna regresja bayesowska Podstawy liniowej regresji bayesowskiej Zastosowanie bayesowskiej regresji liniowej Grupowanie danych: klasyfikacja i klastry Podstawowe podejście do klasyfikacji nadzorowanej Algorytm k najbliższych sąsiadów Kroki algorytmu Scenariusze biznesowe Maszyna wektorów nośnych Ogólny opis algorytmu Szybka powtórka z matematyki Kroki algorytmu Klasteryzacja nienadzorowana Przypadek biznesowy: redukcja zbioru danych Algorytm K-średnich Algorytm K-medoidów Algorytm DBSCAN Część IV Podstawy uczenia głębokiego Jednokierunkowe sieci neuronowe Krótka historia sieci neuronowych Neuron McCullocha-Pittsa Sieci jednokierunkowe Bardziej wyrafinowane sieci Typy sztucznych neuronów Perceptron Neuron logistyczny Trenowanie sieci neuronowej Ogólna strategia uczenia Algorytm propagacji wstecznej Projekt sieci neuronowej Aspekty sieci neuronowej Funkcje aktywacji Ukryte warstwy Warstwa wyjściowa Budowanie sieci neuronowej Dostępne platformy Pierwsza sieć neuronowa za pomocą Keras Sieci neuronowe kontra inne algorytmy Inne typy sieci neuronowych Typowe problemy jednokierunkowych sieci neuronowych Rekurencyjne sieci neuronowe Anatomia sieci neuronowej ze stanem Sieci neuronowe LSTM Konwolucyjne sieci neuronowe Klasyfikacja i rozpoznawanie obrazów Warstwa konwolucyjna Warstwa typu pooling W pełni połączona warstwa Dalszy rozwój sieci neuronowych Generatywne sieci neuronowe z przeciwnikiem Sieci typu autoencoder Analiza sentymentu: kompleksowe rozwiązanie Przygotowanie danych treningowych Formalizowanie problemu Uzyskiwanie danych Manipulowanie danymi Uwarunkowania dotyczące formatu pośredniego Trenowanie modelu Wybieranie ekosystemu Budowanie słownika wyrazów Wybieranie trenera Inne aspekty sieci Aplikacja kliencka Pobieranie danych wejściowych dla modelu Uzyskiwanie prognoz z modelu Przekształcanie odpowiedzi w przydatne informacje Część V Finalne uwagi O Usługi w chmurze oferujące Al Azure Cognitive Services Azure Machinę Learning Studio Azure Machinę Learning Service Maszyny DSVM Usługi lokalne SQL Server Machinę Learning Sen/ices Machinę Learning Server Microsoft Data Processing Services Azure Data Lake Azure Databricks Azure HDInsight .NET dla Apache Spark Azure Data Share Azure Data Factory Biznesowe postrzeganie Al Postrzeganie Al w branży Wykorzystanie potencjału Do czego można wykorzystać sztuczną inteligencję Wyzwania czające się tuż za rogiem Kompleksowe rozwiązania Nazwijmy to po prostu konsultingiem Granica między oprogramowaniem a analizą danych Zwinna Al
Sygnatura czytelni BWEAiI: XII Ą 106
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149327 N (1 egz.)
Książka
W koszyku
CZĘŚĆ I. PIERWSZE KROKI 25 Rozdział 1. Podyskutujmy o uczeniu się 27 1.2. Zakres, terminologia, predykcja i dane 28 1.2.1. Cechy 28 1.2.2. Wartości docelowe i predykcje 31 1.3. Rola maszyny w uczeniu maszynowym 31 1.4. Przykład systemów uczących się 33 1.4.1. Predykcja kategorii: przykłady klasyfikacji 33 1.4.2. Predykcja wartości - przykłady regresorów 35 1.5. Ocena systemów uczących się 35 1.5.1. Poprawność 36 1.5.2. Wykorzystanie zasobów 37 1.6. Proces budowania systemów uczących się 38 1.7. Założenia i realia uczenia się 40 1.8. Zakończenie rozdziału 42 1.8.1. Droga przed nami 42 Rozdział 2. Kontekst techniczny 45 2.1. O naszej konfiguracji 45 2.2. Potrzeba posiadania języka matematycznego 45 2.3. Nasze oprogramowanie do zmierzenia się z uczeniem maszynowym 46 2.4. Prawdopodobieństwo 47 2.4.1. Zdarzenia elementarne 48 2.4.2. Niezależność zdarzeń 50 2.4.3. Prawdopodobieństwo warunkowe 50 2.4.4. Rozkłady 52 2.5. Kombinacje liniowe, sumy ważone i iloczyny skalarne 54 2.5.1. Średnia ważona 57 2.5.2. Suma kwadratów 59 2.5.3. Suma kwadratów błędów 59 2.6. Perspektywa geometryczna: punkty w przestrzeni 60 2.6.1. Linie 61 2.6.2. Coś więcej niż linie 65 2.7. Notacja sztuczki plus jeden 69 2.8. Odjazd, zrywanie kaftana bezpieczeństwa i nieliniowość 71 2.9. NumPy kontra "cała matematyka" 73 2.9.1. Wracamy do 1D i 2D 75 2.10. Problemy z wartościami zmiennoprzecinkowymi 78 Rozdział 3. Predykcja kategorii - początki klasyfikacji 81 3.1. Zadania klasyfikacji 81 3.2. Prosty zestaw danych do klasyfikacji 82 3.3. Trenowanie i testowanie: nie ucz się do testu 84 3.4. Ocena - wystawienie stopni 87 3.5. Prosty klasyfikator nr 1: najbliżsi sąsiedzi, związki na odległość i założenia 88 3.5.1. Definiowanie podobieństwa 88 3.5.2. k w k-NN 90 3.5.3. Kombinacja odpowiedzi 90 3.5.4. k-NN, parametry i metody bezparametrowe 90 3.5.5. Budowa modelu klasyfikacji k-NN 91 3.6. Prosty klasyfikator nr 2: naiwny klasyfikator bayesowski, prawdopodobieństwo i złamane obietnice 93 3.7. Uproszczona ocena klasyfikatorów 96 3.7.1. Wydajność uczenia się 96 3.7.2. Wykorzystanie zasobów w klasyfikacji 97 3.7.3. Szacowanie zasobów w aplikacjach samodzielnych 103 3.8. Koniec rozdziału 106 3.8.1. Ostrzeżenie: ograniczenia i otwarte kwestie 106 Rozdział 4. Predykcja wartości numerycznych: początki regresji 111 4.1. Prosty zbiór danych dla regresji 111 4.2. Regresja z najbliższymi sąsiadami i statystyki sumaryczne 113 4.2.1. Miary środka: mediana i średnia 114 4.2.2. Budowa modelu regresji k-NN 116 4.3. Błędy regresji liniowej 117 4.3.1. Ziemia nie jest płaska, czyli dlaczego potrzebujemy pochyłości 118 4.3.2. Przekrzywienie pola 120 4.3.3. Wykonanie regresji liniowej 122 4.4. Optymalizacja - wybór najlepszej odpowiedzi 123 4.4.1. Zgadywanie losowe 124 4.4.2. Losowe kroki 124 4.4.3. Sprytne kroki 125 4.4.4. Obliczony skrót 125 4.4.5. Wykorzystanie w regresji liniowej 126 4.5. Prosta ocena i porównanie regresorów 126 4.5.1. Pierwiastek średniego błędu kwadratowego 126 4.5.2. Wydajność uczenia się 127 4.5.3. Wykorzystanie zasobów w regresji 127 4.6. Zakończenie rozdziału 129 4.6.1. Ograniczenia i kwestie otwarte 129 CZĘŚĆ II. OCENA 131 Rozdział 5. Ocena i porównywanie metod uczenia się 133 5.1. Ocena i dlaczego mniej znaczy więcej 133 5.2. Terminologia dla faz uczenia się 134 5.2.1. Powrót do maszyn 135 5.2.2. Mówiąc bardziej technicznie... 137 5.3. Majorze Tom, coś jest nie tak - nadmierne dopasowanie i niedopasowanie 141 5.3.1. Dane syntetyczne i regresja liniowa 141 5.3.2. Ręczna modyfikacja złożoności modelu 143 5.3.3. Złotowłosa - wizualizacja nadmiernego dopasowania, niedopasowania oraz "w sam raz" 145 5.3.4. Prostota 148 5.3.5. Uwagi na temat nadmiernego dopasowania 148 5.4. Od błędów do kosztów 149 5.4.1. Strata 149 5.4.2. Koszt 150 5.4.3. Punktacja 151 5.5. (Powtórne) próbkowanie - zamienić mniej w więcej 152 5.5.1. Walidacja krzyżowa 152 5.5.2. Rozwarstwienie 156 5.5.3. Powtarzany podział na dane treningowe i testowe 158 5.5.4. Lepszy sposób i tasowanie 161 5.5.5. Walidacja krzyżowa z odłożeniem jednego 164 5.6. Rozbicie: dekonstrukcja błędu na błąd systematyczny i wariancję 166 5.6.1. Wariancja danych 167 5.6.2. Wariancja modelu 167 5.6.3. Błąd systematyczny modelu 168 5.6.4. A teraz wszystko razem 168 5.6.5. Przykłady kompromisów związanych z błędem systematycznym i wariancją 169 5.7. Ocena graficzna i porównanie 173 5.7.1. Krzywe uczenia - jak dużo danych potrzebujemy? 173 5.7.2. Krzywe złożoności 177 5.8. Porównywanie metod uczących się za pomocą walidacji krzyżowej 178 Rozdział 6. Ocena klasyfikatorów 183 6.1. Klasyfikatory bazowe 183 6.2. Więcej niż dokładność - wskaźniki dla klasyfikacji 186 6.2.1. Eliminacja zamieszania za pomocą macierzy błędu 187 6.2.2. W jaki sposób można się mylić 188 6.2.3. Wskaźniki z macierzy błędu 189 6.2.4. Kodowanie macierzy błędu 190 6.2.5. Radzenie sobie z wieloma klasami - uśrednianie wieloklasowe 192 6.2.6. F1 194 6.3. Krzywe ROC 194 6.3.1. Wzorce w ROC 197 6.3.2. Binarny ROC 199 6.3.3. AUC - obszar pod krzywą ROC 201 6.3.4. Wieloklasowe mechanizmy uczące się, jeden kontra reszta i ROC 203 6.4. Inne podejście dla wielu klas: jeden-kontra-jeden 205 6.4.1. Wieloklasowe AUC, część druga - w poszukiwaniu pojedynczej wartości 206 6.5. Krzywe precyzji i skuteczności wyszukiwania 209 6.5.1. Uwaga o kompromisie precyzji i skuteczności wyszukiwania 209 6.5.2. Budowanie krzywej precyzji i skuteczności wyszukiwania 210 6.6. Krzywe kumulacyjnej odpowiedzi i wzniesienia 211 6.7. Bardziej wyrafinowana ocena klasyfikatorów - podejście drugie 213 6.7.1. Binarne 213 6.7.2. Nowy problem wieloklasowy 217 Rozdział 7. Ocena metod regresji 225 7.1. Metody regresji będące punktem odniesienia 225 7.2. Dodatkowe miary w metodach regresji 227 7.2.1. Tworzenie własnych miar oceny 227 7.2.2. Inne wbudowane miary regresji 228 7.2.3. R2 229 7.3. Wykresy składników resztowych 235 7.3.1. Wykresy błędów 235 7.3.2. Wykresy składników resztowych 237 7.4. Pierwsze podejście do standaryzacji 241 7.5. Ocena mechanizmów regresji w bardziej zaawansowany sposób: podejście drugie 245 7.5.1. Wyniki po sprawdzianie krzyżowym z użyciem różnych miar 246 7.5.2. Omówienie wyników ze sprawdzianu krzyżowego 249 7.5.3. Składniki resztowe 250 CZĘŚĆ III. JESZCZE O METODACH I PODSTAWACH 255 Rozdział 8. Inne metody klasyfikacji 257 8.1. Jeszcze o klasyfikacji 257 8.2. Drzewa decyzyjne 259 8.2.1. Algorytmy budowania drzewa 262 8.2.2. Do pracy. Pora na drzewa decyzyjne 265 8.2.3. Obciążenie i wariancja w drzewach decyzyjnych 268 8.3. Klasyfikatory oparte na wektorach nośnych 269 8.3.1. Stosowanie klasyfikatorów SVC 272 8.3.2. Obciążenie i wariancja w klasyfikatorach SVC 275 8.4. Regresja logistyczna 277 8.4.1. Szanse w zakładach 278 8.4.2. Prawdopodobieństwo, szanse i logarytm szans 280 8.4.3. Po prostu to zrób: regresja logistyczna 285 8.4.4. Regresja logistyczna: osobliwość przestrzenna 286 8.5. Analiza dyskryminacyjna 287 8.5.1. Kowariancja 289 8.5.2. Metody 299 8.5.3. Przeprowadzanie analizy dyskryminacyjnej 301 8.6. Założenia, obciążenie i klasyfikatory 302 8.7. Porównanie klasyfikatorów: podejście trzecie 304 8.7.1. Cyfry 305 Rozdział 9. Inne metody regresji 313 9.1. Regresja liniowa na ławce kar - regularyzacja 313 9.1.1. Przeprowadzanie regresji z regularyzacją 318 9.2. Regresja z użyciem wektorów nośnych 319 9.2.1. Zawiasowa funkcja straty 319 9.2.2. Od regresji liniowej przez regresję z regularyzacją do regresji SVR 323 9.2.3. Po prostu to zrób - w stylu SVR 324 9.3. Regresja segmentowa ze stałymi 325 9.3.1. Implementowanie regresji segmentowej ze stałymi 327 9.3.2. Ogólne uwagi na temat implementowania modeli 328 9.4. Drzewa regresyjne 331 9.4.1. Przeprowadzanie regresji z użyciem drzew 331 9.5. Porównanie metod regresji: podejście trzecie 332 Rozdział 10. Ręczna inżynieria cech - manipulowanie danymi dla zabawy i dla zysku 337 10.1. Terminologia i przyczyny stosowania inżynierii cech 337 10.1.1. Po co stosować inżynierię cech? 338 10.1.2. Kiedy stosuje się inżynierię cech? 339 10.1.3. Jak przebiega inżynieria cech? 340 10.2. Wybieranie cech i redukcja danych - pozbywanie się śmieci 341 10.3. Skalowanie cech 342 10.4. Dyskretyzacja 346 10.5. Kodowanie kategorii 348 10.5.1. Inna metoda kodowania i niezwykły przypadek braku punktu przecięcia z osią 351 10.6. Relacje i interakcje 358 10.6.1. Ręczne tworzenie cech 358 10.6.2. Interakcje 360 10.6.3. Dodawanie cech na podstawie transformacji 364 10.7. Manipulowanie wartościami docelowymi 366 10.7.1. Manipulowanie przestrzenią danych wejściowych 367 10.7.2. Manipulowanie wartościami docelowymi 369 Rozdział 11. Dopracowywanie hiperparametrów i potoki 375 11.1. Modele, parametry i hiperparametry 376 11.2. Dostrajanie hiperparametrów 378 11.2.1. Uwaga na temat słownictwa informatycznego i z dziedziny uczenia maszynowego 378 11.2.2. Przykład przeszukiwania kompletnego 378 11.2.3. Używanie losowości do szukania igły w stogu siana 384 11.3. Wyprawa w rekurencyjną króliczą norę - zagnieżdżony sprawdzian krzyżowy 385 11.3.1. Opakowanie w sprawdzian krzyżowy 386 11.3.2. Przeszukiwanie siatki jako model 387 11.3.3. Sprawdzian krzyżowy zagnieżdżony w sprawdzianie krzyżowym 388 11.3.4. Uwagi na temat zagnieżdżonych SK 391 11.4. Potoki 393 11.4.1. Prosty potok 393 11.4.2. Bardziej skomplikowany potok 394 11.5. Potoki i dostrajanie całego procesu 395 CZĘŚĆ IV. ZWIĘKSZANIE ZŁOŻONOŚCI 399 Rozdział 12. Łączenie mechanizmów uczących się 401 12.1. Zespoły 401 12.2. Zespoły głosujące 404 12.3. Bagging i lasy losowe 404 12.3.1. Technika bootstrap 404 12.3.2. Od techniki bootstrap do metody bagging 408 12.3.3. Przez losowy las 410 12.4. Boosting 412 12.4.1. Szczegółowe omówienie boostingu 413 12.5. Porównywanie metod opartych na zespołach drzew 415 Rozdział 13. Modele z automatyczną inżynierią cech 423 13.1. Wybieranie cech 425 13.1.1. Filtrowanie jednoetapowe z wybieraniem cech na podstawie miar 426 13.1.2. Wybieranie cech na podstawie modelu 437 13.1.3. Integrowanie wybierania cech z potokiem procesu uczenia 440 13.2. Tworzenie cech za pomocą jąder 441 13.2.1. Powód używania jąder 441 13.2.2. Ręczne metody wykorzystujące jądra 446 13.2.3. Metody wykorzystujące jądro i opcje jądra 450 13.2.4. Klasyfikatory SVC dostosowane do jądra - maszyny SVM 454 13.2.5. Uwagi do zapamiętania na temat maszyn SVM i przykładów 456 13.3. Analiza głównych składowych - technika nienadzorowana 457 13.3.1. Rozgrzewka - centrowanie 458 13.3.2. Znajdowanie innej najlepszej linii 459 13.3.3. Pierwsza analiza głównych składowych 461 13.3.4. Analiza głównych składowych od kuchni 463 13.3.5. Wielki finał - uwagi na temat analizy głównych składowych 469 13.3.6. Analiza głównych składowych dla jądra i metody oparte na rozmaitościach 470 Rozdział 14. Inżynieria cech dla dziedzin - uczenie specyficzne dla dziedziny 481 14.1. Praca z tekstem 482 14.1.1. Kodowanie tekstu 484 14.1.2. Przykład maszynowego klasyfikowania tekstu 488 14.2. Klastrowanie 490 14.2.1. Klastrowanie metodą k-średnich 491 14.3. Praca z obrazami 492 14.3.1. Worek słów graficznych 492 14.3.2. Dane graficzne 493 14.3.3. Kompletny system 494 14.3.4. Kompletny kod transformacji obrazów na postać WGSG 501 Rozdział 15. Powiązania, rozwinięcia i kierunki dalszego rozwoju 507 15.1. Optymalizacja 507 15.2. Regresja liniowa z prostych składników 510 15.2.1. Graficzne ujęcie regresji liniowej 513 15.3. Regresja logistyczna z prostych składników 514 15.3.1. Regresja logistyczna i kodowanie zerojedynkowe 515 15.3.2. Regresja logistyczna z kodowaniem plus jeden - minus jeden 517 15.3.3. Graficzne ujęcie regresji logistycznej 518 15.4. Maszyna SVM z prostych składników 518 15.5. Sieci neuronowe 520 15.5.1. Regresja liniowa za pomocą sieci neuronowych 521 15.5.2. Regresja logistyczna za pomocą sieci neuronowych 523 15.5.3. Poza podstawowe sieci neuronowe 524 15.6. Probabilistyczne modele grafowe 525 15.6.1. Próbkowanie 527 15.6.2. Regresja liniowa za pomocą modelu PGM 528 15.6.3. Regresja logistyczna za pomocą modelu PGM 531 15.7. Koniec rozdziału 534 Dodatek A. Kod z pliku mlwpy.py 537
Sygnatura czytelni BWEAiI: XII Ł 176
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 150202 (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149872 N (1 egz.)
Książka
W koszyku
W książce także ISBN oryginału.
1.Wprowadzenie do danologii na platformie AWS Zalety przetwarzania w chmurze Potoki i procesy w danologii Zalecane praktyki z obszaru MLOps Usługi SI Amazona i zautomatyzowane uczenie maszynowe w narzędziu Amazon SageMaker Pobieranie, eksploracja i przygotowywanie danych na platformie AWS Uczenie i dostrajanie modelu za pomocą narzędzia Amazon SageMaker Instalowanie modeli za pomocą usługi Amazon SageMaker i funkcji AWS Lambda Analizy i uczenie maszynowe dla strumieni danych na platformie AWS Infrastruktura platformy AWS i niestandardowy sprzęt Ograniczanie kosztów za pomocą tagów, budżetów i alertów 2.Zastosowania danologii Innowacje w każdej branży Spersonalizowane rekomendacje produktów Wykrywanie niestosownych materiałów wideo za pomocą usługi Amazon Rekognition Prognozowanie zapotrzebowania Identyfikowanie fałszywych kont za pomocą usługi Amazon Fraud Detector Używanie usługi Amazon Macie do wykrywania wycieków wrażliwych danych Urządzenia konwersacyjne i asystenci głosowi Analiza tekstu i NLP Wyszukiwanie kognitywne i rozumienie języka naturalnego Inteligentne centra obsługi klienta Przemysłowe usługi SI i konserwacja predykcyjna Automatyzacja domu za pomocą narzędzi AWS IoT i Amazon SageMaker Pobieranie informacji medycznych z dokumentów służby zdrowia Samooptymalizująca i inteligentna infrastruktura chmury Kognitywna i predyktywna analityka biznesowa Edukacja następnego pokolenia programistów SI i UM Zaprogramuj naturalny system operacyjny za pomocą przetwarzania kwantowego Wzrost wydajności i obniżenie kosztów 3.Zautomatyzowane uczenie maszynowe Zautomatyzowane uczenie maszynowe w usłudze SageMaker Autopilot Śledzenie wyników eksperymentów za pomocą usługi SageMaker Autopilot Uczenie i instalowanie klasyfikatora tekstu za pomocą usługi SageMaker Autopilot Zautomatyzowane uczenie maszynowe w usłudze Amazon Comprehend 4.Pobieranie danych do chmury Jeziora danych Kierowanie zapytań do jeziora danych w S3 za pomocą usługi Amazon Athena Ciągłe pobieranie nowych danych za pomocą narzędzia AWS Glue Crawler Stosowanie architektury Lake House za pomocą usługi Amazon Redshift Spectrum Wybór między narzędziami Amazon Athena a Amazon Redshift 5.Eksplorowanie zbioru danych Narzędzia do eksplorowania danych w AWS Wizualizowanie jeziora danych w środowisku SageMaker Studio Zapytania dotyczące hurtowni danych Tworzenie paneli kontrolnych za pomocą usługi Amazon CjuickSight Wykrywanie problemów z jakością danych za pomocą narzędzi Amazon SageMaker i Apache Spark Wykrywanie tendencyjności w zbiorze danych Wykrywanie zmian różnego rodzaju za pomocą usługi SageMaker Clarify Analizowanie danych za pomocą usługi AWS Glue DataBrew Zmniejszanie kosztów i zwiększanie wydajności 6.Przygotowywanie zbioru danych do uczenia modelu Wybieranie i inżynieria cech Skalowanie inżynierii cech za pomocą zadań SageMaker Processing Udostępnianie cech za pomocą repozytorium cech z platformy SageMaker Wczytywanie i przekształcanie danych w usłudze SageMaker Data Wrangler Śledzenie historii artefaktów i eksperymentów na platformie Amazon SageMaker Wczytywanie i przekształcanie danych za pomocą usługi AWS Glue DataBrew 7.Uczenie pierwszego modelu Infrastruktura platformy SageMaker Instalowanie wyuczonego modelu BERT za pomocą usługi SageMaker JumpStart Tworzenie modelu w platformie SageMaker Krótka historia przetwarzania języka naturalnego Architektura Transformer w algorytmie BERT Uczenie modelu BERT od podstaw Dostrajanie wstępnie wyuczonego modelu BERT Tworzenie skryptu uczenia Uruchamianie skryptu uczenia w usłudze SageMaker Notebook Ocena modeli Debugowanie i profilowanie procesu uczenia modelu w usłudze SageMaker Debugger Interpretowanie i wyjaśnianie predykcji modelu Wykrywanie tendencyjności modelu i wyjaśnianie predykcji Dodatkowe metody uczenia algorytmu BERT 8.Uczenie i optymalizowanie modeli na dużą skalę Automatyczne znajdowanie optymalnych hiperparametrów dla modelu Stosowanie ciepłego startu dla dodatkowych zadań dostrajania hiperparametrów na platformie SageMaker Skalowanie poziome uczenia rozproszonego na platformie SageMaker 9.Instalowanie modeli w środowisku produkcyjnym Predykcje w czasie rzeczywistym czy w trybie wsadowym? Generowanie predykcji w czasie rzeczywistym za pomocą punktów końcowych platformy SageMaker Automatyczne skalowanie punktów końcowych platformy SageMaker za pomocą usługi Amazon CloudWatch Strategie instalowania nowych i zaktualizowanych modeli Testowanie i porównywanie nowych modeli Monitorowanie pracy modelu i wykrywanie zmian Monitorowanie jakości danych w punktach końcowych platformy SageMaker Monitorowanie jakości modelu w zainstalowanych punktach końcowych platformy SageMaker Monitorowanie zmian tendencyjności w zainstalowanych punktach końcowych platformy SageMaker Monitorowanie zmian wkładu cech w zainstalowanych punktach końcowych platformy SageMaker Wsadowe generowanie predykcji za pomocą usługi przekształcania wsadowego na platformie SageMaker Funkcje AWS Lambda i usługa Amazon API Gateway Optymalizowanie modeli i zarządzanie nimi na obrzeżach sieci Instalowanie modelu opartego na platformie PyTorch za pomocą narzędzia TorchServe Generowanie predykcji przez algorytm BERT oparty na platformie TensorFlow na platformie AWS Deep Java Library 10.Potoki i MLOps MLOps Potoki programowe Potoki uczenia maszynowego Koordynowanie potoku za pomocą usługi SageMaker Pipelines Automatyzacja w usłudze SageMaker Pipelines Inne sposoby tworzenia potoków Procesy z udziałem człowieka 11.Analizy i uczenie maszynowe dla danych przesyłanych strumieniowo Uczenie w trybach online i offline Aplikacje strumieniowe Zapytania oparte na oknach dotyczące strumieniowanych danych Analiza i uczenie maszynowe na podstawie strumieni na platformie AWS Klasyfikowanie recenzji produktów w czasie rzeczywistym za pomocą narzędzi Amazon Kinesis, AWS Lambda i Amazon SageMaker Implementowanie pobierania strumieniowanych danych za pomocą usługi Kinesis Data Firehose Podsumowywanie recenzji produktów w czasie rzeczywistym na podstawie analizy strumienia Konfigurowanie usługi Amazon Kinesis Data Analytics Aplikacje w usłudze Kinesis Data Analytics Klasyfikowanie recenzji produktów za pomocą narzędzi Apache Kafka, AWS Lambda i Amazon SageMaker 12. Bezpieczna danologia na platformie AWS Model podziału odpowiedzialności między platformę AWS i klientów Korzystanie z usługi IAM na platformie AWS Izolacja środowisk obliczeniowych i sieciowych Zabezpieczanie dostępu do danych w S3 Szyfrowanie danych w spoczynku Szyfrowanie danych w tranzycie Zabezpieczanie instancji z notatnikami platformy SageMaker Zabezpieczanie środowiska SageMaker Studio Zabezpieczanie zadań i modeli platformy SageMaker Zabezpieczanie usługi AWS Lake Formation Zabezpieczanie danych uwierzytelniających do bazy za pomocą AWS Secrets Manager Nadzór Audytowalność
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153017 N (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłumaczenie: Krzysztof Sawka. - Wydanie II, aktualizacja do modułu TensorFlow 2. - Gliwice : Helion, copyright 2020. - 764, [4] strony : ilustracje ; 25 cm.
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO 25 1. Krajobraz uczenia maszynowego 27 Czym jest uczenie maszynowe? 28 Dlaczego warto korzystać z uczenia maszynowego? 28 Przykładowe zastosowania 31 Rodzaje systemów uczenia maszynowego 33 Uczenie nadzorowane i uczenie nienadzorowane 34 Uczenie wsadowe i uczenie przyrostowe 40 Uczenie z przykładów i uczenie z modelu 43 Główne problemy uczenia maszynowego 48 Niedobór danych uczących 50 Niereprezentatywne dane uczące 50 Dane kiepskiej jakości 51 Nieistotne cechy 52 Przetrenowanie danych uczących 52 Niedotrenowanie danych uczących 54 Testowanie i ocenianie 55 Strojenie hiperparametrów i dobór modelu 55 Niezgodność danych 56 2. Nasz pierwszy projekt uczenia maszynowego 59 Praca z rzeczywistymi danymi 59 Przeanalizuj całokształt projektu 61 Określ zakres problemu 61 Wybierz metrykę wydajności 63 Sprawdź założenia 65 Zdobądź dane 65 Stwórz przestrzeń roboczą 66 Pobierz dane 68 Rzut oka na strukturę danych 70 Stwórz zbiór testowy 74 Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje 78 Wizualizowanie danych geograficznych 78 Poszukiwanie korelacji 80 Eksperymentowanie z kombinacjami atrybutów 83 Przygotuj dane pod algorytmy uczenia maszynowego 84 Oczyszczanie danych 84 Obsługa tekstu i atrybutów kategorialnych 87 Niestandardowe transformatory 89 Skalowanie cech 90 Potoki transformujące 90 Wybór i uczenie modelu 92 Trenowanie i ocena modelu za pomocą zbioru uczącego 92 Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego 93 Wyreguluj swój model 96 Metoda przeszukiwania siatki 96 Metoda losowego przeszukiwania 98 Metody zespołowe 98 Analizuj najlepsze modele i ich błędy 98 Oceń system za pomocą zbioru testowego 99 Uruchom, monitoruj i utrzymuj swój system 100 Teraz Twoja kolej! 103 3. Klasyfikacja 105 Zbiór danych MNIST 105 Uczenie klasyfikatora binarnego 107 Miary wydajności 108 Pomiar dokładności za pomocą sprawdzianu krzyżowego 108 Macierz pomyłek 110 Precyzja i pełność 111 Kompromis pomiędzy precyzją a pełnością 112 Wykres krzywej ROC 116 Klasyfikacja wieloklasowa 119 Analiza błędów 121 Klasyfikacja wieloetykietowa 124 Klasyfikacja wielowyjściowa 125 4. Uczenie modeli 129 Regresja liniowa 130 Równanie normalne 131 Złożoność obliczeniowa 134 Gradient prosty 135 Wsadowy gradient prosty 138 Stochastyczny spadek wzdłuż gradientu 141 Schodzenie po gradiencie z minigrupami 143 Regresja wielomianowa 145 Krzywe uczenia 146 Regularyzowane modele liniowe 150 Regresja grzbietowa 150 Regresja metodą LASSO 153 Metoda elastycznej siatki 155 Wczesne zatrzymywanie 156 Regresja logistyczna 157 Szacowanie prawdopodobieństwa 158 Funkcje ucząca i kosztu 159 Granice decyzyjne 160 Regresja softmax 162 5. Maszyny wektorów nośnych 167 Liniowa klasyfikacja SVM 167 Klasyfikacja miękkiego marginesu 168 Nieliniowa klasyfikacja SVM 170 Jądro wielomianowe 171 Cechy podobieństwa 172 Gaussowskie jądro RBF 173 Złożoność obliczeniowa 175 Regresja SVM 175 Mechanizm działania 177 Funkcja decyzyjna i prognozy 177 Cel uczenia 178 Programowanie kwadratowe 180 Problem dualny 181 Kernelizowane maszyny SVM 182 Przyrostowe maszyny SVM 185 6. Drzewa decyzyjne 187 Uczenie i wizualizowanie drzewa decyzyjnego 187 Wyliczanie prognoz 188 Szacowanie prawdopodobieństw przynależności do klas 190 Algorytm uczący CART 191 Złożoność obliczeniowa 192 Wskaźnik Giniego czy entropia? 192 Hiperparametry regularyzacyjne 193 Regresja 194 Niestabilność 196 7. Uczenie zespołowe i losowe lasy 199 Klasyfikatory głosujące 199 Agregacja i wklejanie 202 Agregacja i wklejanie w module Scikit-Learn 203 Ocena OOB 205 Rejony losowe i podprzestrzenie losowe 206 Losowe lasy 206 Zespół Extra-Trees 207 Istotność cech 207 Wzmacnianie 209 AdaBoost 209 Wzmacnianie gradientowe 212 Kontaminacja 217 8. Redukcja wymiarowości 223 Klątwa wymiarowości 224 Główne strategie redukcji wymiarowości 225 Rzutowanie 225 Uczenie rozmaitościowe 227 Analiza PCA 228 Zachowanie wariancji 229 Główne składowe 230 Rzutowanie na d wymiarów 231 Implementacja w module Scikit-Learn 232 Współczynnik wariancji wyjaśnionej 232 Wybór właściwej liczby wymiarów 232 Algorytm PCA w zastosowaniach kompresji 233 Losowa analiza PCA 234 Przyrostowa analiza PCA 235 Jądrowa analiza PCA 236 Wybór jądra i strojenie hiperparametrów 236 Algorytm LLE 239 Inne techniki redukowania wymiarowości 241 9. Techniki uczenia nienadzorowanego 243 Analiza skupień 244 Algorytm centroidów 246 Granice algorytmu centroidów 255 Analiza skupień w segmentacji obrazu 256 Analiza skupień w przetwarzaniu wstępnym 257 Analiza skupień w uczeniu półnadzorowanym 259 Algorytm DBSCAN 262 Inne algorytmy analizy skupień 265 Mieszaniny gaussowskie 266 Wykrywanie anomalii za pomocą mieszanin gaussowskich 271 Wyznaczanie liczby skupień 273 Modele bayesowskie mieszanin gaussowskich 275 Inne algorytmy służące do wykrywania anomalii i nowości 279 CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE 283 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras 285 Od biologicznych do sztucznych neuronów 286 Neurony biologiczne 287 Operacje logiczne przy użyciu neuronów 288 Perceptron 289 Perceptron wielowarstwowy i propagacja wsteczna 293 Regresyjne perceptrony wielowarstwowe 297 Klasyfikacyjne perceptrony wielowarstwowe 298 Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras 300 Instalacja modułu TensorFlow 2 301 Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego 302 Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego 311 Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego 312 Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego 316 Zapisywanie i odczytywanie modelu 318 Stosowanie wywołań zwrotnych 318 Wizualizacja danych za pomocą narzędzia TensorBoard 320 Dostrajanie hiperparametrów sieci neuronowej 323 Liczba warstw ukrytych 326 Liczba neuronów w poszczególnych warstwach ukrytych 327 Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry 328 11. Uczenie głębokich sieci neuronowych 333 Problemy zanikających/eksplodujących gradientów 334 Inicjalizacje wag Glorota i He 334 Nienasycające funkcje aktywacji 336 Normalizacja wsadowa 340 Obcinanie gradientu 346 Wielokrotne stosowanie gotowych warstw 347 Uczenie transferowe w interfejsie Keras 348 Nienadzorowane uczenie wstępne 350 Uczenie wstępne za pomocą dodatkowego zadania 350 Szybsze optymalizatory 352 Optymalizacja momentum 352 Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) 353 AdaGrad 355 RMSProp 356 Optymalizatory Adam i Nadam 357 Harmonogramowanie współczynnika uczenia 359 Regularyzacja jako sposób zapobiegania przetrenowaniu 364 Regularyzacja l1 i l2 364 Porzucanie 365 Regularyzacja typu Monte Carlo (MC) 368 Regularyzacja typu max-norm 370 Podsumowanie i praktyczne wskazówki 371 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow 375 Krótkie omówienie modułu TensorFlow 375 Korzystanie z modułu TensorFlow jak z biblioteki NumPy 379 Tensory i operacje 379 Tensory a biblioteka NumPy 381 Konwersje typów 381 Zmienne 381 Inne struktury danych 382 Dostosowywanie modeli i algorytmów uczenia 383 Niestandardowe funkcje straty 383 Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe 384 Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia 386 Niestandardowe wskaźniki 387 Niestandardowe warstwy 389 Niestandardowe modele 392 Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu 394 Obliczanie gradientów za pomocą różniczkowania automatycznego 396 Niestandardowe pętle uczenia 399 Funkcje i grafy modułu TensorFlow 402 AutoGraph i kreślenie 404 Reguły związane z funkcją TF 405 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow 409 Interfejs danych 410 Łączenie przekształceń 410 Tasowanie danych 412 Wstępne przetwarzanie danych 415 Składanie wszystkiego w całość 416 Pobieranie wstępne 417 Stosowanie zestawu danych z interfejsem tf.keras 418 Format TFRecord 419 Skompresowane pliki TFRecord 420 Wprowadzenie do buforów protokołów 420 Bufory protokołów w module TensorFlow 422 Wczytywanie i analizowanie składni obiektów Example 423 Obsługa list list za pomocą bufora protokołów SequenceExample 424 Wstępne przetwarzanie cech wejściowych 425 Kodowanie cech kategorialnych za pomocą wektorów gorącojedynkowych 426 Kodowanie cech kategorialnych za pomocą wektorów właściwościowych 428 Warstwy przetwarzania wstępnego w interfejsie Keras 431 TF Transform 433 Projekt TensorFlow Datasets (TFDS) 435 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych 439 Struktura kory wzrokowej 440 Warstwy splotowe 441 Filtry 443 Stosy map cech 444 Implementacja w module TensorFlow 446 Zużycie pamięci operacyjnej 448 Warstwa łącząca 449 Implementacja w module TensorFlow 451 Architektury splotowych sieci neuronowych 452 LeNet-5 454 AlexNet 455 GoogLeNet 458 VGGNet 461 ResNet 461 Xception 465 SENet 466 Implementacja sieci ResNet-34 za pomocą interfejsu Keras 468 Korzystanie z gotowych modeli w interfejsie Keras 469 Gotowe modele w uczeniu transferowym 471 Klasyfikowanie i lokalizowanie 473 Wykrywanie obiektów 474 W pełni połączone sieci splotowe 476 Sieć YOLO 478 Segmentacja semantyczna 481 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych 487 Neurony i warstwy rekurencyjne 488 Komórki pamięci 490 Sekwencje wejść i wyjść 491 Uczenie sieci rekurencyjnych 492 Prognozowanie szeregów czasowych 493 Wskaźniki bazowe 494 Implementacja prostej sieci rekurencyjnej 494 Głębokie sieci rekurencyjne 496 Prognozowanie kilka taktów w przód 497 Obsługa długich sekwencji 500 Zwalczanie problemu niestabilnych gradientów 501 Zwalczanie problemu pamięci krótkotrwałej 503 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi 513 Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej 514 Tworzenie zestawu danych uczących 515 Rozdzielanie zestawu danych sekwencyjnych 515 Dzielenie zestawu danych sekwencyjnych na wiele ramek 516 Budowanie i uczenie modelu Char-RNN 518 Korzystanie z modelu Char-RNN 519 Generowanie sztucznego tekstu szekspirowskiego 519 Stanowe sieci rekurencyjne 520 Analiza sentymentów 522 Maskowanie 526 Korzystanie z gotowych reprezentacji właściwościowych 527 Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego 529 Dwukierunkowe warstwy rekurencyjne 532 Przeszukiwanie wiązkowe 533 Mechanizmy uwagi 534 Mechanizm uwagi wizualnej 537 Liczy się tylko uwaga, czyli architektura transformatora 539 Współczesne innowacje w modelach językowych 546 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych 551 Efektywne reprezentacje danych 552 Analiza PCA za pomocą niedopełnionego autokodera liniowego 554 Autokodery stosowe 555 Implementacja autokodera stosowego za pomocą interfejsu Keras 556 Wizualizowanie rekonstrukcji 557 Wizualizowanie zestawu danych Fashion MNIST 558 Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych 558 Wiązanie wag 560 Uczenie autokoderów pojedynczo 561 Autokodery splotowe 562 Autokodery rekurencyjne 563 Autokodery odszumiające 564 Autokodery rzadkie 566 Autokodery wariacyjne 569 Generowanie obrazów Fashion MNIST 572 Generatywne sieci przeciwstawne 574 Problemy związane z uczeniem sieci GAN 577 Głębokie splotowe sieci GAN 579 Rozrost progresywny sieci GAN 582 Sieci StyleGAN 585 18. Uczenie przez wzmacnianie 589 Uczenie się optymalizowania nagród 590 Wyszukiwanie strategii 591 Wprowadzenie do narzędzia OpenAI Gym 593 Sieci neuronowe jako strategie 597 Ocenianie czynności: problem przypisania zasługi 598 Gradienty strategii 600 Procesy decyzyjne Markowa 604 Uczenie metodą różnic czasowych 607 Q-uczenie 609 Strategie poszukiwania 610 Przybliżający algorytm Q-uczenia i Q-uczenie głębokie 611 Implementacja modelu Q-uczenia głębokiego 612 Odmiany Q-uczenia głębokiego 616 Ustalone Q-wartości docelowe 616 Podwójna sieć DQN 617 Odtwarzanie priorytetowych doświadczeń 618 Walcząca sieć DQN 618 Biblioteka TF-Agents 619 Instalacja biblioteki TF-Agents 620 Środowiska TF-Agents 620 Specyfikacja środowiska 621 Funkcje opakowujące środowisko i wstępne przetwarzanie środowiska Atari 622 Architektura ucząca 625 Tworzenie Q-sieci głębokiej 627 Tworzenie agenta DQN 629 Tworzenie bufora odtwarzania i związanego z nim obserwatora 630 Tworzenie wskaźników procesu uczenia 631 Tworzenie sterownika 632 Tworzenie zestawu danych 633 Tworzenie pętli uczenia 636 Przegląd popularnych algorytmów RN 637 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow 641 Eksploatacja modelu TensorFlow 642 Korzystanie z systemu TensorFlow Serving 642 Tworzenie usługi predykcyjnej na platformie GCP AI 650 Korzystanie z usługi prognozowania 655 Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym 658 Przyspieszanie obliczeń za pomocą procesorów graficznych 661 Zakup własnej karty graficznej 662 Korzystanie z maszyny wirtualnej wyposażonej w procesor graficzny 664 Colaboratory 665 Zarządzanie pamięcią operacyjną karty graficznej 666 Umieszczanie operacji i zmiennych na urządzeniach 669 Przetwarzanie równoległe na wielu urządzeniach 671 Uczenie modeli za pomocą wielu urządzeń 673 Zrównoleglanie modelu 673 Zrównoleglanie danych 675 Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania 680 Uczenie modelu za pomocą klastra TensorFlow 681 Realizowanie dużych grup zadań uczenia za pomocą usługi Google Cloud AI Platform 684 Penetracyjne strojenie hiperparametrów w usłudze AI Platform 686 A. Rozwiązania ćwiczeń 691 B. Lista kontrolna projektu uczenia maszynowego 725 C. Problem dualny w maszynach wektorów nośnych 731 D. Różniczkowanie automatyczne 735 E. Inne popularne architektury sieci neuronowych 743 F. Specjalne struktury danych 751 G. Grafy TensorFlow 757
Sygnatura czytelni BWEAiI: XII Ł 177
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149873 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Indeks.
Fenomen uczenia maszynowego Uczenie maszynowe w Twoich projektach Cel i sposób jego osiągnięcia Wymogi wstępne Zawartość książki Dodatkowe zasoby Konwencje stosowane w książce Korzystanie z kodu źródłowego Część I Podstawy uczenia maszynowego Rozdział 1. Krajobraz uczenia maszynowego Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Rodzaje systemów uczenia maszynowego Uczenie nadzorowane/nienadzorowane Uczenie nadzorowane Uczenie nienadzorowane Uczenie półnadzorowane Uczenie przez wzmacnianie Uczenie wsadowe/przyrostowe Uczenie wsadowe Uczenie przyrostowe Uczenie z przykładów/z modelu Uczenie z przykładów Uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz metrykę wydajności Sprawdź założenia Zdobądź dane Stwórz przestrzeń roboczą Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Wizualizowanie danych geograficznych Poszukiwanie korelacji Eksperymentowanie z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyszczanie danych Obsługa tekstu i atrybutów kategorialnych Niestandardowe transformatory Skalowanie cech Potoki transformujące Wybór i uczenie modelu Trenowanie i ocena modelu za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizuj najlepsze modele i ich błędy Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Teraz Twoja kolej! Rozdział 3. Klasyfikacja Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa Rozdział 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Metoda elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax Rozdział 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Dodawanie cech podobieństwa Gaussowskie jądro RBF Złożoność obliczeniowa Regresja SVM Mechanizm działania Funkcja decyzyjna i prognozy Cel uczenia Programowanie kwadratowe Problem dualny Kernelizowane maszyny SVM Przyrostowe maszyny SVM Rozdział 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Niestabilność Rozdział 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Kontaminacja Rozdział 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Główne składowe Rzutowanie na d wymiarów Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Przyrostowa analiza PCA Losowa analiza PCA Jądrowa analiza PCA Wybór jądra i strojenie hiperparametrów Algorytm LLE Inne techniki redukowania wymiarowości Część II Sieci neuronowe i uczenie głębokie Rozdział 9. Instalacja i używanie modułu TensorFlow Instalacja Tworzenie pierwszego grafu i uruchamianie go w sesji Zarządzanie grafami Cykl życia wartości w węźle Regresja liniowa przy użyciu modułu TensorFlow Implementacja metody gradientu prostego Ręczne obliczanie gradientów Automatyczne różniczkowanie Korzystanie z optymalizatora Dostarczanie danych algorytmowi uczącemu Zapisywanie i wczytywanie modeli Wizualizowanie grafu i krzywych uczenia za pomocą modułu TensorBoard Zakresy nazw Modułowość Udostępnianie zmiennych Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Uczenie sieci MLP za pomocą zaawansowanego interfejsu API modułu TensorFlow Uczenie głębokiej sieci neuronowej za pomocą standardowego interfejsu TensorFlow Faza konstrukcyjna Faza wykonawcza Korzystanie z sieci neuronowej Strojenie hiperparametrów sieci neuronowej Liczba ukrytych warstw Liczba neuronów tworzących warstwę ukrytą Funkcje aktywacji Rozdział 11. Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjacje wag Xaviera i He Nienasycające funkcje aktywacji Normalizacja wsadowa Implementacja normalizacji wsadowej za pomocą modułu TensorFlow Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Wielokrotne stosowanie modelu TensorFlow Wykorzystywanie modeli utworzonych w innych środowiskach Zamrażanie niższych warstw Zapamiętywanie warstw ukrytych Modyfikowanie, usuwanie lub zastępowanie górnych warstw Repozytoria modeli Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyśpieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizacja Adam Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób unikania przetrenowania Wczesne zatrzymywanie Regularyzacja 1 i 2 Porzucanie Regularyzacja typu max-norm Dogenerowanie danych Praktyczne wskazówki Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Wiele urządzeń na jednym komputerze Instalacja Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji na urządzeniach Proste rozmieszczanie Zapisywanie zdarzeń rozmieszczania Funkcja dynamicznego rozmieszczania Operacje i jądra Miękkie rozmieszczanie Przetwarzanie równoległe Zależności sterujące Wiele urządzeń na wielu serwerach Otwieranie sesji Usługi nadrzędna i robocza Przypinanie operacji w wielu zadaniach Rozdzielanie zmiennych pomiędzy wiele serwerów parametrów Udostępnianie stanu rozproszonych sesji za pomocą kontenerów zasobów Komunikacja asynchroniczna za pomocą kolejek Umieszczanie danych w kolejce Usuwanie danych z kolejki Kolejki krotek Zamykanie kolejki RandomShuffleQueue PaddingFIFOQueue Wczytywanie danych bezpośrednio z grafu Wstępne wczytanie danych do zmiennej Wczytywanie danych uczących bezpośrednio z grafu Czytniki wieloklasowe wykorzystujące klasy Coordinator i QueueRunner Inne funkcje pomocnicze Przetwarzanie równoległe sieci neuronowych w klastrze TensorFlow Jedna sieć neuronowa na każde urządzenie Replikacja wewnątrzgrafowa i międzygrafowa Zrównoleglanie modelu Zrównoleglanie danych Aktualizacje synchroniczne Aktualizacje asynchroniczne Nasycenie przepustowości Implementacja w module TensorFlow Rozdział 13. Splotowe sieci neuronowe Architektura kory wzrokowej Warstwa splotowa Filtry Stosy map cech Implementacja w module TensorFlow Zużycie pamięci operacyjnej Warstwa łącząca Architektury splotowych sieci neuronowych LeNet-5 AlexNet GoogLeNet ResNet Rozdział 14. Rekurencyjne sieci neuronowe Neurony rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Podstawowe sieci RSN w module TensorFlow Statyczne rozwijanie w czasie Dynamiczne rozwijanie w czasie Obsługa sekwencji wejściowych o zmiennej długości Obsługa sekwencji wyjściowych o zmiennej długości Uczenie rekurencyjnych sieci neuronowych Uczenie klasyfikatora sekwencji Uczenie w celu przewidywania szeregów czasowych Twórcza sieć rekurencyjna Głębokie sieci rekurencyjne Rozmieszczanie głębokiej sieci rekurencyjnej pomiędzy wiele kart graficznych Wprowadzanie metody porzucania Problem uczenia w sieciach wielotaktowych Komórka LSTM Połączenia przezierne Komórka GRU Przetwarzanie języka naturalnego Reprezentacje wektorowe słów Sieć typu koder-dekoder służąca do tłumaczenia maszynowego Rozdział 15. Autokodery Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja w module TensorFlow Wiązanie wag Uczenie autokoderów pojedynczo Wizualizacja rekonstrukcji Wizualizowanie cech Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Autokodery odszumiające Implementacja w module TensorFlow Autokodery rzadkie Implementacja w module TensorFlow Autokodery wariacyjne Generowanie cyfr Inne autokodery Rozdział 16. Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie polityki Wprowadzenie do narzędzia OpenAI gym Sieci neuronowe jako polityki Ocenianie czynności problem przypisania zasługi Gradienty polityk Procesy decyzyjne Markowa Uczenie metodą różnic czasowych i algorytm Q-uczenia Polityki poszukiwania Przybliżający algorytm Q-uczenia Nauka gry w Ms. Pac-Man za pomocą głębokiego Q-uczenia Rozdział 1. Krajobraz uczenia maszynowego Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Rozdział 3. Klasyfikacja Rozdział 4. Uczenie modeli Rozdział 5. Maszyny wektorów nośnych Rozdział 6. Drzewa decyzyjne Rozdział 7. Uczenie zespołowe i losowe lasy Rozdział 8. Redukcja wymiarowości Rozdział 9. Instalacja i używanie modułu TensorFlow Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Rozdział 11. Uczenie głębokich sieci neuronowych Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Rozdział 13. Splotowe sieci neuronowe Rozdział 14. Rekurencyjne sieci neuronowe Rozdział 15. Autokodery Rozdział 16. Uczenie przez wzmacnianie Dodatek B Lista kontrolna projektu uczenia maszynowego Określenie problemu i przeanalizowanie go w szerszej perspektywie Pozyskanie danych Analiza danych Przygotowanie danych Stworzenie krótkiej listy obiecujących modeli Dostrojenie modelu Zaprezentowanie rozwiązania Dodatek C Problem dualny w maszynach wektorów nośnych Dodatek D Różniczkowanie automatyczne Różniczkowanie ręczne Różniczkowanie symboliczne Różniczkowanie numeryczne Różniczkowanie automatyczne Odwrotne różniczkowanie automatyczne Dodatek E Inne popularne architektury sieci neuronowych Sieci Hopfielda Maszyny Boltzmanna Ograniczone maszyny Boltzmanna Głębokie sieci przekonań Mapy samoorganizujące
Sygnatura czytelni BWEAiI: XII Ł 101
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146326 N (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn, Keras i TensorFlow / Aurélien Géron ; przekład: Krzysztof Sawka. - Gliwice : Helion, 2023. - 774, [2] strony : fotografie, ilustracje, wykresy ; 24 cm.
Wydanie 3. odnosi się do oryginału. Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Indeks.
Podstawy uczenia maszynowego Nadzorowanie uczenia Uczenie wsadowe i uczenie przyrostowe Uczenie z przykładów i uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Testowanie i ocenianie Strojenie hiperparametrów i dobór modelu Niezgodność danych Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz wskaźnik wydajności Zdobądź dane Uruchom przykładowy kod w serwisie Google Colab Zapisz zmiany w kodzie i w danych Zalety i wady interaktywności Kod w książce a kod w notatnikach Jupyter Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Zwizualizuj dane geograficzne Poszukaj korelacji Eksperymentuj z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyść dane Obsługa tekstu i atrybutów kategorialnych Skalowanie i przekształcanie cech Niestandardowe transformatory Potoki transformujące Wybierz i wytrenuj model Trenuj i oceń model za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizowanie najlepszych modeli i ich błędów Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Regresja metodą elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Cechy podobieństwa Gaussowskie jądro RBF Klasy SVM i złożoność obliczeniowa Regresja SVM Mechanizm działania liniowych klasyfikatorów SVM Problem dualny Kernelizowane maszyny SVM 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Wrażliwość na orientację osi Drzewa decyzyjne mają znaczną wariancję 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Wzmacnianie gradientu w oparciu o histogram Kontaminacja 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Rzutowanie na d wymiarów
Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Losowa analiza PCA Przyrostowa analiza PCA Rzutowanie losowe Algorytm LLE Inne techniki redukowania wymiarowości 9. Techniki uczenia nienadzorowanego Analiza skupień: algorytm centroidów i DBSCAN Algorytm centroidów Granice algorytmu centroidów Analiza skupień w segmentacji obrazu Analiza skupień w uczeniu półnadzorowanym Algorytm DBSCAN Mieszaniny gaussowskie Wykrywanie anomalii za pomocą mieszanin gaussowskich Wyznaczanie liczby skupień Bayesowskie modele mieszane Sieci neuronowe i uczenie głębokie 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Regresyjne perceptrony wielowarstwowe Klasyfikacyjne perceptrony wielowarstwowe Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego Zapisywanie i odczytywanie modelu Stosowanie wywołań zwrotnych Wizualizacja danych za pomocą narzędzia TensorBoard Dostrajanie hiperparametrów sieci neuronowej Liczba warstw ukrytych Liczba neuronów w poszczególnych warstwach ukrytych Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjalizacje wag Glorota i He Lepsze funkcje aktywacji Normalizacja wsadowa Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Uczenie transferowe w interfejsie Keras Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizator Adam AdaMax Nadam AdamW Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób zapobiegania przetrenowaniu Regularyzacja l1 i l2 Porzucanie Regularyzacja typu Monte Carlo (MC) Regularyzacja typu max-norm Modele niestandardowe i uczenie za pomocą modułu TensorFlow Krótkie omówienie modułu TensorFlow Korzystanie z modułu TensorFlow jak z biblioteki NumPy Tensory i operacje Tensory a biblioteka NumPy Konwersje typów Zmienne Dostosowywanie modeli i algorytmów uczenia Niestandardowe funkcje straty Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia Niestandardowe wskaźniki Niestandardowe warstwy Niestandardowe modele Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu Obliczanie gradientów za pomocą różniczkowania automatycznego Niestandardowe pętle uczenia Funkcje i grafy modułu TensorFlow AutoGraph i kreślenie Reguły związane z funkcją TF Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow Interfejs tf.data Łączenie przekształceń Tasowanie danych Przeplatanie wierszy z różnych plików Wstępne przetwarzanie danych Składanie wszystkiego w całość Pobieranie wstępne Stosowanie zestawu danych z interfejsem Keras Format TFRecord Skompresowane pliki TFRecord Wprowadzenie do buforów protokołów Bufory protokołów w module TensorFlow Wczytywanie i analizowanie składni obiektów Example Obsługa list list za pomocą bufora protokołów SequenceExample Warstwy przetwarzania wstępnego Keras Warstwa Normalization Warstwa Discretization Warstwa CategoryEncoding Warstwa StringLookup Warstwa Hashing Kodowanie cech kategorialnych za pomocą wektorów właściwościowych Wstępne przetwarzanie tekstu Korzystanie z wytrenowanych składników modelu językowego Warstwy wstępnego przetwarzania obrazów Projekt TensorFlow Datasets (TFDS) Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych Struktura kory wzrokowej Warstwy splotowe Filtry Stosy map cech Implementacja warstw splotowych w interfejsie Keras Zużycie pamięci operacyjnej Warstwa łącząca Implementacja warstw łączących w interfejsie Keras Architektury splotowych sieci neuronowych LeNet-5 AlexNet
GoogLeNet VGGNet ResNet Xception SENet Wybór właściwej struktury CNN Implementacja sieci ResNet-34 za pomocą interfejsu Keras Korzystanie z gotowych modeli w interfejsie Keras Gotowe modele w uczeniu transferowym Klasyfikowanie i lokalizowanie Wykrywanie obiektów W pełni połączone sieci splotowe Sieć YOLO Śledzenie obiektów Segmentacja semantyczna Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych Neurony i warstwy rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Uczenie sieci rekurencyjnych Prognozowanie szeregów czasowych Rodzina modeli ARMA Przygotowywanie danych dla modeli uczenia maszynowego Prognozowanie za pomocą modelu liniowego Prognozowanie za pomocą prostej sieci rekurencyjnej Prognozowanie za pomocą głębokich sieci rekurencyjnych Prognozowanie wielowymiarowych szeregów czasowych Prognozowanie kilka taktów w przód Prognozowanie za pomocą modelu sekwencyjnego Obsługa długich sekwencji Zwalczanie problemu niestabilnych gradientów Zwalczanie problemu pamięci krótkotrwałej Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej Tworzenie zestawu danych uczących Budowanie i uczenie modelu char-RNN Generowanie sztucznego tekstu szekspirowskiego Stanowe sieci rekurencyjne Analiza opinii Maskowanie Korzystanie z gotowych reprezentacji właściwościowych i modeli językowych Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego Dwukierunkowe sieci rekurencyjne Przeszukiwanie wiązkowe Mechanizmy uwagi Liczy się tylko uwaga: pierwotna architektura transformatora Zatrzęsienie modeli transformatorów Transformatory wizualne Biblioteka Transformers firmy Hugging Face Autokodery, generatywne sieci przeciwstawne i modele rozpraszające Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja autokodera stosowego za pomocą interfejsu Keras Wizualizowanie rekonstrukcji Wizualizowanie zestawu danych Fashion MNIST Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Wiązanie wag Uczenie autokoderów pojedynczo Autokodery splotowe Autokodery odszumiające Autokodery rzadkie Autokodery wariacyjne Generowanie obrazów Fashion MNIST Generatywne sieci przeciwstawne Problemy związane z uczeniem sieci GAN Głębokie splotowe sieci GAN Rozrost progresywny sieci GAN Sieci StyleGAN Modele rozpraszające Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie strategii Wprowadzenie do narzędzia OpenAI Gym Sieci neuronowe jako strategie Ocenianie czynności: problem przypisania zasługi Gradienty strategii Procesy decyzyjne Markowa Uczenie metodą różnic czasowych Q-uczenie Przybliżający algorytm Q-uczenia i Q-uczenie głębokie Implementacja modelu Q-uczenia głębokiego Odmiany Q-uczenia głębokiego Ustalone Q-wartości docelowe Podwójna sieć DQN Odtwarzanie priorytetowych doświadczeń Walcząca sieć DQN Przegląd popularnych algorytmów RN Wielkoskalowe uczenie i wdrażanie modeli TensorFlow Eksploatacja modelu TensorFlow Korzystanie z systemu TensorFlow Serving Tworzenie usługi predykcyjnej na platformie Vertex AI Uwierzytelnianie i autoryzacja w serwisie GCP Wykonywanie zadań predykcji wsadowych w usłudze Vertex AI Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym Przetwarzanie modelu na stronie internetowej Przyspieszanie obliczeń za pomocą procesorów graficznych Zakup własnej karty graficznej Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji i zmiennych na urządzeniach Przetwarzanie równoległe na wielu urządzeniach Uczenie modeli za pomocą wielu urządzeń Zrównoleglanie modelu Zrównoleglanie danych Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania Uczenie modelu za pomocą klastra TensorFlow Realizowanie dużych grup zadań uczenia za pomocą usługi Vertex AI Strojenie hiperparametrów w usłudze Vertex AI
Sygnatura czytelni BWEAiI: XII E 131
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154703 N (1 egz.)
Brak okładki
Książka
W koszyku
Tytuł oryginału : Pragmatic AI : an introduction to cloud-based machine learning.
Na okładce: Addison Wesley - Seria Dane i Analizy.
Indeks.
Część I: Wprowadzenie do pragmatycznej Al 1 1 Pragmatyczne podejście do Al 3 Funkcjonalne wprowadzenie do Pythona 4 Instrukcje proceduralne 5 Drukowanie 5 Tworzenie i używanie zmiennych 5 Wiele instrukcji proceduralnych 6 Obliczenia arytmetyczne 6 Łączenie fraz (tekstów) 6 Złożone instrukcje 6 Ciągi i formatowanie ciągów 7 Liczby i operacje arytmetyczne 10 Struktury danych 11 Słowniki 11 Listy 13 Funkcje 13 Pisanie funkcji 14 Prosta funkcja 14 Dokumentowanie funkcji 14 Argumenty funkcji: pozycyjne lub nazwane 14 Używanie struktur sterujących w Pythonie 22 Pętla for 22 Pętle while 23 if/elif/else 24 Wyrażenie generatora 24 Wyrażenia listowe 25 Zagadnienia pośrednie 26 Tworzenie biblioteki w Pythonie 26 Importowanie biblioteki 26 Instalowanie innych bibliotek przy użyciu pip install Klasy 28 2Narzędzia Al i ML 31 Ekosystem analiz danych w Pythonie: IPython, Pandas, NumPy, Jupyter Notebook, Sklearn 32 R, RStudio, Shiny i ggplot 33 Arkusze kalkulacyjne: Excel oraz Google Sheets 33 Projektowanie rozwiązania chmurowego Al przy użyciu Amazon Web Services 34 DevOpswAWS 34 Ciągłe dostarczanie 35 Tworzenie środowiska projektowania oprogramowania dla AWS 35 Integracja z Jupyter Notebook 42 Integrowanie narzędzi wiersza polecenia 44 Integrowanie narzędzi AWS CodePipeline 48 Konfigurowanie Docker na potrzeby analiz danych 53 Inne serwery kompilacji: Jenkins, Circled oraz Travis 54 3Spartański cykl życia Al 55 Pragmatyczne sprzężenie zwrotne 56 AWSSageMaker 59 Sprzężenie zwrotne AWS Glue 61 AWS Batch 65 Sprzężenia zwrotne oparte na Docker 66 Część II: Al w chmurze 69 4Chmurowe projektowanie Al w Google Cloud Platform 71 Przegląd GCP 72 Colaboratory 73 Datalab 75 Rozszerzanie Datalab przy użyciu Docker i Google Container Registry 75 Uruchamianie wydajnych maszyn przy użyciu Datalab 76 BigQuery 78 Przenoszenie danych do BigQuery z wiersza polecenia 79 Usługi Al w chmurze Google 81 Klasyfikowanie (wielu) ras mojego psa przy użyciu Cloud Vision API 82 Cloud TPU i TensorFlow 84 Uruchamianie MNIST w Cloud TPU 87 5Projektowanie chmurowej Al przy użyciu Amazon Web Services 89 Budowanie rozwiązań rzeczywistości rozszerzonej (AR) i wirtualnej (VR) w AWS 91 Rozpoznawanie obrazów: potoki AR/VR z EFS i Fiask 92 Potok inżynierii danych z wykorzystaniem EFS, Flask i Pandas 94 Część III: Tworzenie praktycznych aplikacji Al 111 6Przewidywanie wpływów mediów społecznościowych w NBA 113 Formułowanie problemu 114 Gromadzenie danych 114 Gromadzenie danych z trudnych źródeł 135 Gromadzenie informacji o wyświetleniach stron Wikipedii dla sportowców 135 Gromadzenie informacji o zaangażowaniu sportowców na Twitterze 140 Przeglądanie danych sportowców NBA 143 Nienadzorowane uczenie maszynowe dotyczące zawodników NBA 147 Tworzenie wykresu kafelkowego w R 148 Zebranie wszystkiego razem: drużyny, zawodnicy, siła i dodatki 150 Kolejne pragmatyczne kroki 152 7Tworzenie inteligentnego slackbota w AWS 153 Tworzenie bota 153 Konwertowanie biblioteki w narzędzie wiersza polecenia 154 Przenoszenie bota na następny poziom przy użyciu funkcji krokowych AWS 156 Konfigurowanie poświadczeń IAM 157 Korzystanie z chalice 157 Budowanie funkcji krokowej 166 8Wyszukiwanie pomysłów na zarządzanie projektami w organizacji GitHub 171 Przegląd problemów związanych z zarządzaniem projektami oprogramowania 171 Pytania do rozważenia 172 Tworzenie wstępnego szkieletu projektu Data Science 173 Zbieranie i transformowanie danych 175 Komunikowanie się z całą organizacją GitHub 177 Tworzenie statystyk specyficznych dla dziedziny 178 Wiązanie projektu Data Science ze środowiskiem wiersza polecenia 180 Wykorzystanie notatnika Jupyter do eksplorowania organizacji 182 Projekt Pallets 182 Przeglądanie metadanych pliku w projekcie CPython 184 Wyszukiwanie usuniętych plików w projekcie CPython 188 Wdrażanie projektu w Python Package Index 191 9 Dynamiczna optymalizacja instancji EC2 w AWS 195 Uruchamianie zadań w AWS 195 Instancje Spot 195 10Nieruchomości 215 Eksplorowanie rynku nieruchomości w Stanach Zjednoczonych 215 Interaktywna wizualizacja danych w Pythonie 217 Grupowanie według rozmiarów i cen 219 11Produkcyjna Al dla treści generowanych przez użytkowników 227 Netflix Prize nie została zaimplementowana w produkcji 228 Kluczowe koncepcje systemów rekomendacji 229 Korzystanie z platformy Surprise w Pythonie 230 Rozwiązania chmurowe dla systemów rekomendacji 232 Problemy świata rzeczywistego w mechanizmach rekomendacji 233 Praktyczne problemy systemów rekomendacji: integracja z produkcyjnymi API 234 Chmurowe NLP i analiza opinii 238 NLPwAzure 238 NLPwGCP 241 Eksplorowanie API jednostek 241 Produkcyjny bezserwerowy potok Al dla NLP w AWS 244 12Akceleratory Al 251 13Wybór liczby grup 253
Sygnatura czytelni BWEAiI: XII Ł 118
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146928 N (1 egz.)
Książka
W koszyku
Wydanie 2. odnosi się do oryginału.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Znaczenie danych Czym jest analiza danych? Hipotetyczna motywacja Określanie najważniejszych węzłów Analitycy, których możesz znać Wynagrodzenie i doświadczenie Płatne konta Tematy interesujące użytkowników Błyskawiczny kurs Pythona Zasady tworzenia kodu Pythona Skąd wziąć interpreter Pythona? Środowiska wirtualne Formatowanie za pomocą białych znaków Moduły Polskie znaki diakrytyczne Funkcje Łańcuchy Wyjątki Listy Krotki Słowniki defaultdict Counter Zbiory Przepływ sterowania Wartości logiczne Sortowanie Składanie list Testy automatyczne i instrukcja assert Programowanie obiektowe Obiekty iterowalne i generatory Losowość Wyrażenia regularne Narzędzia funkcyjne Funkcja zip i rozpakowywanie argumentów Argumenty nazwane i nienazwane Adnotacje typów Jak pisać adnotacje typów Witaj w firmie DataSciencester! 3. Wizualizacja danych Pakiet matplotlib Wykres słupkowy Wykresy liniowe Wykresy punktowe 4. Algebra liniowa Wektory Macierze 5. Statystyka Opis pojedynczego zbioru danych Tendencje centralne Dyspersja Korelacja Paradoks Simpsona Korelacja i przyczynowość 6. Prawdopodobieństwo Zależność i niezależność Prawdopodobieństwo warunkowe Twierdzenie Bayesa Zmienne losowe Ciągły rozkład prawdopodobieństwa Rozkład normalny Centralne twierdzenie graniczne Przykład: rzut monetą Wartości p Przedziały ufności Hakowanie wartości p Przykład: przeprowadzanie testu A-B Wnioskowanie bayesowskie Dalsza eksploracja 8. Metoda gradientu prostego Podstawy metody gradientu prostego Szacowanie gradientu Korzystanie z gradientu Dobór właściwego rozmiaru kroku Używanie metody gradientu do dopasowywania modeli Metody gradientu prostego: stochastyczna i minibatch 9. Uzyskiwanie danych Strumienie stdin i stdout Wczytywanie plików Podstawowe zagadnienia dotyczące plików tekstowych Pliki zawierające dane rozdzielone separatorem Pobieranie danych ze stron internetowych HTML i parsowanie Przykład: wypowiedzi kongresmenów Korzystanie z interfejsów programistycznych Format JSON (i XML) Korzystanie z interfejsu programistycznego bez uwierzytelniania Poszukiwanie interfejsów programistycznych Przykład: korzystanie z interfejsów programistycznych serwisu Twitter Uzyskiwanie danych uwierzytelniających Eksploracja danych jednowymiarowych Dwa wymiary 1 Wiele wymiarów Wykorzystanie klasy NamedTuple Dekorator dataclass Oczyszczanie i wstępne przetwarzanie danych Przetwarzanie danych Przeskalowanie Dygresja: tqdm Redukcja liczby wymiarów 11. Uczenie maszynowe Modelowanie Czym jest uczenie maszynowe? Nadmierne i zbyt małe dopasowanie Poprawność Kompromis pomiędzy wartością progową a wariancją Ekstrakcja i selekcja cech 12. Algorytm k najbliższych sąsiadów Model Przykład: dane dotyczące irysów Przekleństwo wymiarowości 13. Naiwny klasyfikator bayesowski Bardzo prosty filtr antyspamowy Bardziej zaawansowany filtr antyspamowy Implementacja Testowanie modelu Używanie modelu 14. Prosta regresja liniowa Model Korzystanie z algorytmu spadku gradientowego Szacowanie maksymalnego prawdopodobieństwa 15. Regresja wieloraka Model Dalsze założenia dotyczące modelu najmniejszych kwadratów Dopasowywanie modelu Interpretacja modelu Poprawność dopasowania Dygresja: ładowanie wstępne Błędy standardowe współczynników regresji Regularyzacja 16. Regresja logistyczna Funkcja logistyczna Stosowanie modelu Poprawność dopasowania Maszyny wektorów nośnych Dalsza eksploracja 17. Drzewa decyzyjne Czym jest drzewo decyzyjne? Entropia Entropia podziału Tworzenie drzewa decyzyjnego Łączenie wszystkiego w całość Lasy losowe 18. Sztuczne sieci neuronowe Perceptrony Jednokierunkowe sieci neuronowe Propagacja wsteczna Przykład: Fizz Buzz Dalsza eksploracja 19. Uczenie głębokie Tensor Abstrakcja Layer Warstwa Linear Sieci neuronowe jako sekwencje warstw Abstrakcja Loss i optymalizacja Przykład: kolejne podejście do bramki XOR Inne funkcje aktywacji Przykład: kolejne podejście do gry Fizz Buzz Funkcja softmax i entropia krzyżowa Dropout Przykład: MNIST Zapisywanie i wczytywanie modeli 20. Grupowanie Idea Model Przykład: spotkania Wybór wartości parametru k Przykład: grupowanie kolorów Grupowanie hierarchiczne z podejściem aglomeracyjnym 21. Przetwarzanie języka naturalnego Chmury wyrazowe Modele n-gram Gramatyka Na marginesie: próbkowanie Gibbsa Modelowanie tematu Wektory słów Rekurencyjne sieci neuronowe Przykład: używanie rekurencyjnej sieci neuronowej na poziomie pojedynczych znaków Dalsza eksploracja 22. Analiza sieci społecznościowych Pośrednictwo Centralność wektorów własnych Mnożenie macierzy Centralność Grafy skierowane i metoda PageRank 23. Systemy rekomendujące Ręczne rozwiązywanie problemu Rekomendowanie tego, co jest popularne Filtrowanie kolaboratywne oparte na użytkownikach Filtrowanie kolaboratywne oparte na zainteresowaniach Faktoryzacja macierzy 24. Bazy danych i SQL Polecenia CREATE TABLE i INSERT Polecenie UPDATE Polecenie DELETE Polecenie SELECT Polecenie GROUP BY Polecenie ORDER BY Polecenie JOIN Zapytania składowe Optymalizacja zapytań Bazy danych NoSQL Dalsza eksploracja 25. Algorytm MapReduce Przykład: liczenie słów Dlaczego warto korzystać z algorytmu MapReduce? Algorytm MapReduce w ujęciu bardziej ogólnym Przykład: analiza treści statusów Przykład: mnożenie macierzy Dodatkowe informacje: zespalanie 26. Etyka przetwarzania danych Czym jest etyka danych? Ale tak naprawdę to czym jest etyka danych? Czy powinienem przejmować się etyką danych? Tworzenie złych produktów wykorzystujących dane Kompromis między dokładnością a uczciwością Współpraca Interpretowalność Rekomendacje Tendencyjne dane Ochrona danych IPython Matematyka Korzystanie z gotowych rozwiązań NumPy pandas scikit-learn Wizualizacja R Uczenie głębokie Szukanie danych Zabierz się za analizę Hacker News Wozy straży pożarnej Koszulki Tweety na kuli ziemskiej
Sygnatura czytelni BWEAiI: XII Ł 217
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153003 (1 egz.)
Książka
W koszyku
Analityk danych : przewodnik po data science, statystyce i uczeniu maszynowym / Alex J. Gutman, Jordan Goldmeier ; przekład: Grzegorz Werner. - Gliwice : Helion, copyright 2023. - XXXVIII, 213 stron : fotografie, ilustracje, mapy, wykresy ; 24 cm.
Na grzbiecie także nazwa wydawcy oryginału: Wiley.
Pytania, które powinien zadawać spec od danych Dlaczego problem jest ważny? Na kogo wpływa ten problem? Co, jeśli nie mamy właściwych danych? Kiedy projekt się zakończy? Co, jeśli nie spodobają nam się rezultaty? Dlaczego projekty związane z danymi kończą się niepowodzeniem? Wrażenia klientów Omówienie Praca nad problemami, które mają znaczenie Dane a informacje Przykładowy zbiór danych Jak gromadzi się dane i jaką mają strukturę? Dane obserwacyjne i eksperymentalne Dane ustrukturyzowane i nieustrukturyzowane Podstawowe statystyki zbiorcze Przygotowanie do myślenia statystycznego Zadawaj pytania Scenariusz: wrażenia klientów (kontynuacja) Studium przypadku: zachorowalność na raka nerki Prawdopodobieństwo i statystyka Prawdopodobieństwo a intuicja Odkrywanie informacji za pomocą statystyki Mów jak spec od danych Polemizuj z danymi Katastrofa spowodowana brakiem danych Jaka jest historia pochodzenia danych? Kto zebrał dane? Jak zebrano dane? Czy dane są reprezentatywne? Czy poprawnie dobrano próbę? Co zrobiono z wartościami odstającymi? Jakich danych nie widzę? Jak rozwiązano problem brakujących wartości? Czy dane mogą zmierzyć to, co ma być mierzone? Polemizuj z danymi każdej wielkości Eksploruj dane Eksploracyjna analiza danych i Ty Przyjmij nastawienie eksploracyjne Pytania naprowadzające Czy dane mogą odpowiedzieć na pytanie? Określ oczekiwania i użyj zdrowego rozsądku Czy wartości mają intuicyjny sens? Uważaj! Wartości odstające i brakujące Czy odkryliście jakieś związki? Korelacja Uważaj! Błędne interpretowanie korelacji Uważaj! Korelacja nie implikuje przyczynowości Czy znaleźliście w danych nowe możliwości? Badaj prawdopodobieństwa Reguły gry Notacja Prawdopodobieństwo warunkowe i zdarzenia niezależne Prawdopodobieństwo wielu zdarzeń Ćwiczenie myślowe z zakresu prawdopodobieństwa Uważaj z zakładaniem niezależności Wszystkie prawdopodobieństwa są warunkowe Nie przestawiaj zależności Twierdzenie Bayesa Upewnij się, że prawdopodobieństwa mają znaczenie Kalibracja Rzadkie zdarzenia mogą się zdarzać i się zdarzają Kwestionuj statystyki Więcej danych, więcej dowodów Kwestionuj status quo Dowody na twierdzenie przeciwne Równoważenie błędów decyzyjnych Proces wnioskowania statystycznego Pytania, które pomogą Ci kwestionować statystyki Jaki jest kontekst tych statystyk? Jaki jest rozmiar próby? Co testujecie? Jaka jest hipoteza zerowa? Zakładanie równoważności Jaki jest poziom istotności? Ile przeprowadzacie testów? Czy mogę zobaczyć przedziały ufności? Czy jest to praktycznie istotne? Czy zakładacie przyczynowość? Przybornik specjalisty data science W poszukiwaniu ukrytych grup Uczenie nienadzorowane Redukcja wymiarowości Tworzenie cech złożonych Analiza składowych głównych Składowe główne zdolności sportowych Podsumowanie PCA Potencjalne pułapki Klasteryzacja metodą k-średnich Klasteryzacja sklepów detalicznych Potencjalne pułapki Model regresji Uczenie nadzorowane Jak działa regresja liniowa? Regresja metodą najmniejszych kwadratów: nie tylko pomysłowa nazwa
Regresja liniowa Rozszerzanie modelu na wiele cech Regresja liniowa: jakie powoduje nieporozumienia? Pominięte zmienne Współliniowość Przeciek danych Błędy ekstrapolacji Relacje nie zawsze są liniowe Wyjaśniasz czy przewidujesz? Skuteczność regresji Model klasyfikacji Regresja logistyczna Regresja logistyczna Drzewa decyzyjne Metody zespołowe Lasy losowe Drzewa wzmacniane gradientowo Interpretowalność modeli zespołowych Przeciek danych Brak podziału danych Wybór odpowiedniego progu decyzyjnego Błędne rozumienie dokładności Macierze błędów Analiza tekstu Oczekiwania wobec analizy tekstu Jak tekst staje się liczbami N-gramy Osadzenia słów Modelowanie tematyczne Klasyfikacja tekstu Naiwny klasyfikator bayesowski Analiza odczuć Kwestie praktyczne podczas pracy z tekstem Giganci technologiczni mają przewagę Uczenie głębokie Sieci neuronowe Pod jakimi względami sieci neuronowe przypominają ludzki mózg? Jak uczy się sieć neuronowa? Nieco bardziej złożona sieć neuronowa Zastosowania uczenia głębokiego Korzyści z uczenia głębokiego Jak komputery „widzą” obrazy? Konwolucyjne sieci neuronowe Uczenie głębokie w języku i sekwencjach Uczenie głębokie w praktyce Czy masz dane? Czy Twoje dane są ustrukturyzowane? Jak będzie wyglądać sieć? Sztuczna inteligencja i Ty Giganci technologiczni mają przewagę Etyka w uczeniu głębokim Droga do sukcesu Strzeż się pułapek Tendencyjność i dziwne zjawiska w danych Błąd przeżywalności Regresja do średniej Paradoks Simpsona Błąd konfirmacji Błąd utopionych kosztów Dyskryminacja algorytmiczna Nieskategoryzowane przejawy tendencyjności Wielka lista pułapek Pułapki związane ze statystyką i uczeniem maszynowym Pułapki związane z projektem Znaj ludzi i osobowości Siedem scenariuszy fiaska komunikacyjnego Post mortem Konfrontacja z rzeczywistością Wrogie przejęcie Egocentryk Osobowości w świecie danych Entuzjasta Cynik Spec od danych
Sygnatura czytelni BWEAiI: XII E 126
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154647 N (1 egz.)
Książka
W koszyku
Zaawansowane uczenie maszynowe z językiem Python / John Hearty ; [tłumaczenie Konrad Matuk]. - Gliwice : Helion, copyright 2017. - 246 stron: ilustracje, wykresy ; 24 cm.
(Technologia i Rozwiązania)
Indeks.
Nienadzorowane uczenie maszynowe Analiza głównych składowych (PCA) Podstawy analizy głównych składowych Stosowanie algorytmu analizy głównych składowych Wprowadzenie grupowania metodą k-średnich Grupowanie - wprowadzenie Rozpoczynamy grupowanie Dostrajanie konfiguracji klastrów Sieci Kohonena Sieci Kohonena - wprowadzenie Korzystanie z sieci Kohonena Sieci DBN Sieci neuronowe - wprowadzenie Budowa sieci neuronowej Topologie sieci Ograniczona maszyna Boltzmanna Ograniczone maszyny Boltzmanna - wstęp Zastosowania ograniczonych maszyn Boltzmanna Dalsze zastosowania ograniczonej maszyny Boltzmanna Sieci głębokie Trenowanie sieci DBN Stosowanie sieci DBN Walidacja sieci DBN Stosy autoenkoderów odszumiających Autoenkodery Autoenkodery - wprowadzenie Odszumianie autoenkoderów Korzystanie z autoenkodera odszumiającego Stosy autoenkoderów odszumiających Korzystanie ze stosu autoenkoderów odszumiających Ocena wydajności stosu autoenkoderów odszumiających Konwolucyjne sieci neuronowe Konwolucyjne sieci neuronowe - wprowadzenie Topologia sieci konwolucyjnej Korzystanie z konwolucyjnych sieci neuronowych Częściowo nadzorowane uczenie maszynowe Czym jest uczenie częściowo nadzorowane? Działanie algorytmów uczenia częściowo nadzorowanego Samodzielne uczenie się) Kontrastywna pesymistyczna estymacja prawdopodobieństwa Rozpoznawanie języka naturalnego i selekcja cech Selekcja cech danych tekstowych Czyszczenie danych tekstowych Tworzenie cech na podstawie danych tekstowych Testowanie przygotowanych danych Selekcja cech - część II Tworzenie zestawu cech Selekcja cech pod kątem uczenia maszynowego Korzystanie z technik selekcji cech Inżynieria cech w praktyce Pobieranie danych za pomocą interfejsów REST Metody zespołowe Wprowadzenie do metod zespołowych Metody uśredniające Stosowanie metod wzmacniania Stosowanie metod kontaminacji Wykorzystanie modeli w zastosowaniach dynamicznych Czym jest elastyczność modeli? Strategie zarządzania elastycznością modelu Dodatkowe narzędzia uczenia maszynowego w języku Python Alternatywne narzędzia programowe Biblioteka Lasagne - wprowadzenie Biblioteka TensorFlow - wprowadzenie Kiedy warto korzystać z tych bibliotek? Wymagania przykładowych skryptów
Sygnatura czytelni BWEAiI: XII Ł 87
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 145179 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności