158664
Książka
W koszyku
Python : uczenie maszynowe / Sebastian Raschka ; [tłumaczenie: Krzysztof Sawka]. - Gliwice : Wydawnictwo Helion, copyright 2018. - 413 stron : ilustracje, wykresy ; 23 cm.
(Technologia i Rozwiązania)
Umożliwianie komputerom uczenia się z danych Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę Trzy różne rodzaje uczenia maszynowego Prognozowanie przyszłości za pomocą uczenia nadzorowanego Rozwiązywanie problemów interaktywnych za pomocą uczenia przez wzmacnianie Odkrywanie ukrytych struktur za pomocą uczenia nienadzorowanego Wprowadzenie do podstawowej terminologii i notacji Strategia tworzenia systemów uczenia maszynowego Wstępne przetwarzanie - nadawanie danym formy Trenowanie i dobór modelu predykcyjnego Ewaluacja modeli i przewidywanie wystąpienia nieznanych danych Wykorzystywanie środowiska Python do uczenia maszynowego Instalacja pakietów w Pythonie Trenowanie algorytmów uczenia maszynowego w celach klasyfikacji Sztuczne neurony - rys historyczny początków uczenia maszynowego Implementacja algorytmu uczenia perceptronu w Pythonie Trenowanie modelu perceptronu na zestawie danych Iris Adaptacyjne neurony liniowe i zbieżność uczenia Minimalizacja funkcji kosztu za pomocą metody gradientu prostego Implementacja adaptacyjnego neuronu liniowego w Pythonie Wielkoskalowe uczenie maszynowe i metoda stochastycznego spadku wzdłuż gradientu Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn Wybór algorytmu klasyfikującego Pierwsze kroki z biblioteką scikit-learn Uczenie perceptronu za pomocą biblioteki scikit-learn Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej Teoretyczne podłoże regresji logistycznej i prawdopodobieństwa warunkowego Wyznaczanie wag logistycznej funkcji kosztu Uczenie modelu regresji logistycznej za pomocą biblioteki scikit-learn Zapobieganie nadmiernemu dopasowaniu za pomocą regularyzacji Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych Teoretyczne podłoże maksymalnego marginesu Rozwiązywanie przypadków nieliniowo rozdzielnych za pomocą zmiennych uzupełniających Alternatywne implementacje w interfejsie scikit-learn Rozwiązywanie nieliniowych problemów za pomocą jądra SVM Stosowanie sztuczki z funkcją jądra do znajdowania przestrzeni rozdzielających w przestrzeni o większej liczbie wymiarów Uczenie drzew decyzyjnych Maksymalizowanie przyrostu informacji - osiąganie jak największych korzyści Budowanie drzewa decyzyjnego Łączenie słabych klasyfikatorów w silne klasyfikatory za pomocą modelu losowego lasu Algorytm k-najbliższych sąsiadów - model leniwego uczenia Tworzenie dobrych zbiorów uczących - wstępne przetwarzanie danych Kwestia brakujących danych Usuwanie próbek lub cech niezawierających wartości Wstawianie brakujących danych Estymatory interfejsu scikit-learn Przetwarzanie danych kategoryzujących Mapowanie cech porządkowych Kodowanie etykiet klas Kodowanie "gorącojedynkowe" cech nominalnych (z użyciem wektorów własnych) Rozdzielanie zestawu danych na podzbiory uczące i testowe Skalowanie cech Dobór odpowiednich cech Regularyzacja L1 Algorytmy sekwencyjnego wyboru cech Ocenianie istotności cech za pomocą algorytmu losowego lasu Kompresja danych poprzez redukcję wymiarowości Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych Wyjaśniona wariancja całkowita Transformacja cech Analiza głównych składowych w interfejsie scikit-learn Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej Obliczanie macierzy rozproszenia Dobór dyskryminant liniowych dla nowej podprzestrzeni cech Rzutowanie próbek na nową przestrzeń cech Implementacja analizy LDA w bibliotece scikit-learn Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas Funkcje jądra oraz sztuczka z funkcją jądra Implementacja jądrowej analizy głównych składowych w Pythonie Rzutowanie nowych punktów danych Algorytm jądrowej analizy głównych składowych w bibliotece scikit-learn Najlepsze metody oceny modelu i strojenie parametryczne Usprawnianie cyklu pracy za pomocą kolejkowania Wczytanie zestawu danych Breast Cancer Wisconsin Łączenie funkcji transformujących i estymatorów w kolejce czynności Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu Metoda wydzielania K-krotny sprawdzian krzyżowy Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji Diagnozowanie problemów z obciążeniem i wariancją za pomocą krzywych uczenia Rozwiązywanie problemów nadmiernego i niewystarczającego dopasowania za pomocą krzywych walidacji Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki Strojenie hiperparametrów przy użyciu metody przeszukiwania siatki Dobór algorytmu poprzez zagnieżdżony sprawdzian krzyżowy Przegląd metryk oceny skuteczności Odczytywanie macierzy pomyłek Optymalizacja precyzji i pełności modelu klasyfikującego Wykres krzywej ROC Metryki zliczające dla klasyfikacji wieloklasowej Łączenie różnych modeli w celu uczenia zespołowego Uczenie zespołów Implementacja prostego klasyfikatora wykorzystującego głosowanie większościowe Łączenie różnych algorytmów w celu klasyfikacji za pomocą głosowania większościowego Ewaluacja i strojenie klasyfikatora zespołowego Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego Wykorzystywanie uczenia maszynowego w analizie sentymentów Zestaw danych IMDb movie review Wprowadzenie do modelu worka słów Przekształcanie słów w wektory cech Ocena istotności wyrazów za pomocą ważenia częstości termów - odwrotnej częstości w tekście Oczyszczanie danych tekstowych Przetwarzanie tekstu na znaczniki Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej Serializacja wyuczonych estymatorów biblioteki scikit-learn Konfigurowanie bazy danych SQLite Tworzenie aplikacji sieciowej za pomocą środowiska Flask Nasza pierwsza aplikacja sieciowa Sprawdzanie i wyświetlanie formularza Przekształcanie klasyfikatora recenzji w aplikację sieciową Umieszczanie aplikacji sieciowej na publicznym serwerze Aktualizowanie klasyfikatora recenzji filmowych Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej Wprowadzenie do prostego modelu regresji liniowej Zestaw danych Housing Wizualizowanie ważnych elementów zestawu danych Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów Określanie parametrów regresywnych za pomocą metody gradientu prostego Szacowanie współczynnika modelu regresji za pomocą biblioteki scikit-learn Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC Ocenianie skuteczności modeli regresji liniowej Stosowanie regularyzowanych metod regresji Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa Modelowanie nieliniowych zależności w zestawie danych Housing Analiza nieliniowych relacji za pomocą algorytmu losowego lasu Praca z nieoznakowanymi danymi - analiza skupień Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów Algorytm k-means++ Klasteryzacja twarda i miękka Stosowanie metody łokcia do wyszukiwania optymalnej liczby skupień Ujęcie ilościowe jakości klasteryzacji za pomocą wykresu profilu Organizowanie skupień do postaci drzewa klastrów Przeprowadzanie hierarchicznej analizy skupień na macierzy odległości Dołączanie dendrogramów do mapy cieplnej Aglomeracyjna analiza skupień w bibliotece scikit-learn Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN Trenowanie sztucznych sieci neuronowych w rozpoznawaniu obrazu Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych Jednowarstwowa sieć neuronowa - powtórzenie Wstęp do wielowarstwowej architektury sieci neuronowych Aktywacja sieci neuronowej za pomocą propagacji w przód Klasyfikowanie pisma odręcznego Zestaw danych MNIST Implementacja wielowarstwowego perceptronu Trenowanie sztucznej sieci neuronowej Obliczanie logistycznej funkcji kosztu Uczenie sieci neuronowych za pomocą algorytmu wstecznej propagacji Ujęcie intuicyjne algorytmu wstecznej propagacji Usuwanie błędów w sieciach neuronowych za pomocą sprawdzania gradientów Zbieżność w sieciach neuronowych Inne architektury sieci neuronowych Splotowe sieci neuronowe Rekurencyjne sieci neuronowe Jeszcze słowo o implementacji sieci neuronowej Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki Theano Tworzenie, kompilowanie i uruchamianie wyrażeń w interfejsie Theano Czym jest Theano? Pierwsze kroki z Theano Konfigurowanie środowiska Theano Praca ze strukturami tablicowymi Przejdźmy do konkretów - implementacja regresji liniowej w Theano Dobór funkcji aktywacji dla jednokierunkowych sieci neuronowych Funkcja logistyczna - powtórzenie Szacowanie prawdopodobieństw w klasyfikacji wieloklasowej za pomocą znormalizowanej funkcji wykładniczej Rozszerzanie zakresu wartości wyjściowych za pomocą funkcji tangensa hiperbolicznego Skuteczne uczenie sieci neuronowych za pomocą biblioteki Keras
Sygnatura czytelni BWEAiI: XII Ł 88
Pliki multimedialne:
Status dostępności:
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 145176 N (1 egz.)
Strefa uwag:
Uwaga ogólna
Na okładce i stronie tytułowej wydawca angielskiej wersji: Packt Publishing.
Uwaga dotycząca bibliografii
Indeks.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności