156983
Brak okładki
Książka
W koszyku
1.W przybliżeniu prawdopodobnie poprawne oprogramowanie Prawidłowe pisanie oprogramowania SOLID Testowanie albo TDD Refaktoring Pisanie prawidłowego oprogramowania Pisanie odpowiedniego oprogramowania przy zastosowaniu uczenia maszynowego Czym dokładnie jest uczenie maszynowe? Wysoko oprocentowany dług uczenia maszynowego Zastosowanie zasad SOLID w uczeniu maszynowym Kod uczenia maszynowego jest skomplikowany TDD: metoda naukowa 2.0 Refaktoring wiedzy 2.Szybkie wprowadzenie do uczenia maszynowego Czym jest uczenie maszynowe? Uczenie nadzorowane Uczenie nienadzorowane Uczenie wzmacniane Co może osiągnąć uczenie maszynowe? Notacja matematyczna używana w tej książce 3.K najbliższych sąsiadów Jak ustalić, czy chcemy kupić dom? Ile wart jest dany dom? Regresja hedonistyczna Czym jest sąsiedztwo? K najbliższych sąsiadów Najbliższe sąsiedztwo Odległości Nierówność trójkąta Odległość geometryczna Odległości obliczeniowe Odległości statystyczne Przekleństwo wymiarowości Jak wybrać K? Zgadywanie K Heurystyka wyboru K Wycenianie domów w Seattle Informacje o danych Ogólna strategia Projekt kodowania i testowania Konstrukcja regresora dla algorytmu K najbliższych sąsiadów Testowanie algorytmu K najbliższych sąsiadów 4.Naiwna klasyfikacja bayesowska Wykorzystanie twierdzenia Bayesa do znajdywania oszukańczych zamówień Prawdopodobieństwa warunkowe Symbole prawdopodobieństwa Odwrócone prawdopodobieństwo warunkowe (czyli twierdzenie Bayesa) Naiwny klasyfikator bayesowski Reguła łańcuchowa Naiwność w rozumowaniu bayesowskim Pseudozliczanie Filtr spamu Uwagi przygotowawcze Projekt kodowania i testowania Źródło danych EmailObject Analiza leksykalna i kontekst SpamTrainer Minimalizacja błędów przez sprawdzanie krzyżowe 5.Drzewa decyzyjne i losowe lasy decyzyjne Niuanse dotyczące grzybów Klasyfikowanie grzybów przy wykorzystaniu wiedzy ludowej Znajdowanie optymalnego punktu zwrotnego Zysk informacyjny Niejednorodność Giniego Redukcja wariancji Przycinanie drzew Uczenie zespołowe Pisanie klasyfikatora grzybów 6.Ukryte modele Markowa Śledzenie zachowania użytkownika przy użyciu automatów skończonych Emisje/obserwacje stanów Uproszczenie poprzez założenie Markowa Wykorzystanie łańcuchów Markowa zamiast automatu skończonego Ukryty model Markowa Ocena: algorytm Naprzód-Wstecz Matematyczne przedstawienie algorytmu Naprzód-Wstecz Wykorzystanie zachowania użytkownika Problem dekodowania poprzez algorytm Viterbiego Problem uczenia Oznaczanie części mowy z wykorzystaniem korpusu Browna Uwagi przygotowawcze Projekt kodowania i testowania Podstawa naszego narzędzia do oznaczania części mowy: CorpusParser Pisanie narzędzia do oznaczania części mowy Sprawdzanie krzyżowe w celu potwierdzenia poprawności modelu Jak ulepszyć ten model 7.Maszyny wektorów nośnych Zadowolenie klientów jako funkcja tego, co mówią Klasyfikacja nastrojów przy użyciu maszyn wektorów nośnych Teoria stojąca za maszynami wektorów nośnych Granica decyzyjna Maksymalizowanie granic Sztuczka jądrowa: transformacja cech Optymalizacja przez poluzowanie Analizator nastrojów Uwagi przygotowawcze Projekt kodowania i testowania Strategie testowania maszyny wektorów nośnych Klasa Corpus Klasa CorpusSet Sprawdzanie poprawności modelu i klasyfikator nastrojów Agregowanie nastrojów Wykładnicza ważona średnia ruchoma Mapowanie nastroju do wyniku finansowego 8.Sieci neuronowe Czym jest sieć neuronowa? Historia sieci neuronowych Logika boolowska Perceptrony Jak konstruować sieci neuronowe ze sprzężeniem w przód Warstwa wejściowa Warstwy ukryte Neurony Funkcje aktywacyjne Warstwa wyjściowa Algorytmy uczące Zasada delty Propagacja wsteczna QuickProp RProp Budowanie sieci neuronowych Ile ukrytych warstw? Ile neuronów dla każdej warstwy? Tolerancja błędów i maksymalna liczba epok Wykorzystanie sieci neuronowej do klasyfikowania języków Uwagi przygotowawcze Projekt kodowania i testowania Dane Pisanie testu podstawowego dla języka Przejście do klasy Network Dostrajanie sieci neuronowej Precyzja i czułość w sieciach neuronowych Podsumowanie przykładu 9. Grupowanie Badanie danych bez żadnego błędu systematycznego Kohorty użytkowników Testowanie mapowań do grup Zdatność grupy Współczynnik zarysu Porównywanie wyników z prawdą bazową Grupowanie K-średnich Algorytm K-średnich Słabe strony grupowania K-średnich Grupowanie przez maksymalizację wartości oczekiwanej Algorytm Twierdzenie o niemożności Przykład: kategoryzowanie muzyki Uwagi przygotowawcze Zbieranie danych Projekt kodowania Analizowanie danych przez algorytm K-średnich Grupowanie naszych danych Wyniki z grupowania danych dotyczących muzyki jazzowej z użyciem maksymalizowania wartości oczekiwanej 10.Poprawianie modeli i wydobywania danych Klub dyskusyjny Wybieranie lepszych danych Wybieranie cech Wyczerpujące wyszukiwanie Losowe wybieranie cech Lepszy algorytm wybierania cech Wybieranie cech przez minimalizowanie redundancji i maksymalizowanie istotności Transformacja cech i rozkład macierzy Analiza głównych składowych Analiza niezależnych składowych Uczenie zespołowe Grupowanie typu bootstrap Boosting Przypomnienie algorytmów uczenia maszynowego Jak wykorzystywać te informacje do rozwiązywania problemów
Sygnatura czytelni BWEAiI: XII Ł 98
Status dostępności:
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146120 N (1 egz.)
Strefa uwag:
Tytuł oryginału: Thoughtful machine learning with Python
Uwaga ogólna
Na grzbiecie: Centrum Edukacyjne Promise, Grupa APN Promise.
Na okładce i karcie tytułowej: OʾReilly.
Uwaga dotycząca bibliografii
Indeks.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności