158660
Book
In basket
Początki uczenia maszynowego Użycia i nadużycia uczenia maszynowego Sukcesy uczenia maszynowego Ograniczenia uczenia maszynowego Etyka uczenia maszynowego Jak uczą się maszyny? Zachowywanie danych Abstrakcja Generalizacja Ewaluacja Typy danych wejściowych Typy algorytmów uczenia maszynowego Dopasowywanie danych wejściowych do algorytmów Uczenie maszynowe w języku R Instalowanie pakietów R Wczytywanie pakietów R i usuwanie ich z pamięci Instalowanie RStudio Dlaczego R i dlaczego teraz? Zarządzanie danymi Struktury danych języka R Wektory Czynniki Listy Ramki danych Macierze i tablice Zarządzanie danymi w języku R Wczytywanie, zapisywanie i usuwanie struktur danych R Importowanie i zapisywanie zbiorów danych z plików CSV Importowanie typowych formatów zbiorów danych do RStudio Badanie i rozumienie danych Badanie struktury danych Badanie cech liczbowych Badanie cech kategorycznych Eksplorowanie relacji między cechami Uczenie leniwe — klasyfikacja metodą najbliższych sąsiadów Klasyfikacja metodą najbliższych sąsiadów Algorytm k-NN Dlaczego algorytm k-NN jest „leniwy”? Przykład — diagnozowanie raka piersi za pomocą algorytmu k-NN Etap 1. Zbieranie danych Etap 2. Badanie i przygotowywanie danych Etap 3. Trenowanie modelu na danych Etap 4. Ewaluacja modelu Etap 5. Poprawianie działania modelu Uczenie probabilistyczne — naiwny klasyfikator bayesowski Naiwny klasyfikator bayesowski Podstawowe założenia metod bayesowskich Naiwny klasyfikator bayesowski Przykład — filtrowanie spamu w telefonach komórkowych za pomocą naiwnego klasyfikatora bayesowskiego Etap 1. Zbieranie danych Etap 2. Badanie i przygotowywanie danych Etap 3. Trenowanie modelu na danych Etap 4. Ocena działania modelu Etap 5. Ulepszanie modelu. Dziel i zwyciężaj — klasyfikacja z wykorzystaniem drzew decyzyjnych i reguł Drzewa decyzyjne Algorytm drzewa decyzyjnego C5.0 Przykład — identyfikowanie ryzykownych pożyczek za pomocą drzew decyzyjnych C5.0 Etap 1. Zbieranie danych Etap 2. Badanie i przygotowywanie danych Etap 3. Trenowanie modelu na danych Etap 4. Ocena działania modelu Etap 5. Poprawianie działania modelu Algorytm 1R Algorytm RIPPER Reguły z drzew decyzyjnych Przykład — identyfikowanie trujących grzybów za pomocą algorytmu uczącego się reguł Etap 1. Zbieranie danych Etap 2. Badanie i przygotowywanie danych Etap 3. Trenowanie modelu na danych Etap 4. Ewaluacja modelu Etap 5. Poprawianie działania modelu Prognozowanie danych liczbowych — metody regresji Regresja Prosta regresja liniowa Metoda zwykłych najmniejszych kwadratów Korelacje Wieloraka regresja liniowa Uogólnione modele liniowe i regresja logistyczna Przykład — przewidywanie kosztów likwidacji szkód z wykorzystaniem regresji liniowej Etap 1. Zbieranie danych Etap 2. Badanie i przygotowywanie danych Etap 3. Trenowanie modelu na danych Etap 4. Ewaluacja modelu Etap 5. Poprawianie działania modelu Krok dalej — przewidywanie odpływu ubezpieczonych z wykorzystaniem regresji logistycznej Drzewa regresji i drzewa modeli Dodawanie regresji do drzew
Przykład — ocenianie jakości win za pomocą drzew regresji i drzew modeli Etap 1. Zbieranie danych Etap 2. Badanie i przygotowywanie danych 6 Uczenie maszynowe w języku R Etap 3. Trenowanie modelu na danych Etap 4. Ewaluacja modelu Etap 5. Poprawianie działania modelu Czarne skrzynki — sieci neuronowe i maszyny wektorów nośnych Sieci neuronowe Od neuronów biologicznych do sztucznych Funkcje aktywacji Topologia sieci Trenowanie sieci neuronowej za pomocą propagacji wstecznej Przykład — modelowanie wytrzymałości betonu za pomocą sieci ANN Etap 1. Zbieranie danych Etap 2. Badanie i przygotowywanie danych Etap 3. Trenowanie modelu na danych Etap 4. Ewaluacja modelu Etap 5. Poprawianie działania modelu Maszyny wektorów nośnych Klasyfikacja za pomocą hiperpłaszczyzn Używanie funkcji jądrowych w przestrzeniach nieliniowych Przykład — optyczne rozpoznawanie znaków za pomocą modelu SVM Znajdowanie wzorców — analiza koszyka z wykorzystaniem reguł asocjacyjnych Reguły asocjacyjne Algorytm Apriori do nauki reguł asocjacyjnych Mierzenie istotności reguł — wsparcie i ufność Budowanie zbioru reguł z wykorzystaniem zasady Apriori Przykład — identyfikowanie często kupowanych artykułów spożywczych za pomocą reguł asocjacyjnych Znajdowanie grup danych — klasteryzacja metodą k-średnich Klasteryzacja Klasteryzacja jako zadanie uczenia maszynowego Klastry algorytmów klasteryzacji Klasteryzacja metodą k-średnich Znajdowanie segmentów rynkowych wśród nastolatków poprzez klasteryzację metodą k-średnich Ewaluacja działania modelu Mierzenie trafności klasyfikacji Rozumienie prognoz klasyfikatora Bliższe spojrzenie na macierze błędów Używanie macierzy błędów do mierzenia trafności Nie tylko dokładność — inne miary trafności Wizualizacja kompromisów za pomocą krzywych ROC Szacowanie przyszłej trafności Metoda wstrzymywania Walidacja krzyżowa Próbkowanie bootstrapowe Unikanie oczywistych prognoz Przeprowadzanie uczciwych ewaluacji Budowanie zaufania do modelu Więcej „nauki” w „nauce o danych” Notatniki R i znakowanie R Zaawansowane badanie danych . Zaawansowane przygotowywanie danych Inżynieria cech Rola człowieka i maszyny Wpływ big data i uczenia głębokiego Praktyczna inżynieria cech Podpowiedź 1. Znajdź nowe cechy podczas burzy mózgów Podpowiedź 2. Znajdź spostrzeżenia ukryte w tekście Podpowiedź 3. Przekształcaj zakresy liczbowe Podpowiedź 4. Obserwuj zachowanie sąsiadów Podpowiedź 5. Wykorzystaj powiązane wiersze Podpowiedź 6. Dekomponuj szeregi czasowe Podpowiedź 7. Dołącz dane zewnętrzne tidyverse „Schludne” struktury tabelaryczne — obiekty tibble Szybsze odczytywanie plików prostokątnych za pomocą pakietów readr i readxl Przygotowywanie i potokowe przetwarzanie danych za pomocą pakietu dplyr Przekształcanie tekstu za pomocą pakietu stringr Czyszczenie danych za pomocą pakietu lubridate Trudne dane — za duże, za małe, zbyt złożone Dane wysokowymiarowe Stosowanie selekcji cech Ekstrakcja cech Używanie danych rozrzedzonych Identyfikowanie danych rozrzedzonych Przykład — zmiana odwzorowania rozrzedzonych danych kategorycznych Przykład — dzielenie rozrzedzonych danych liczbowych na przedziały Obsługa brakujących danych Typy brakujących danych Imputacja brakujących wartości Problem niezrównoważonych danych Proste strategie przywracania równowagi danych Generowanie syntetycznego zrównoważonego zbioru danych z wykorzystaniem algorytmu SMOTE Czy zrównoważone zawsze znaczy lepsze? . Budowanie lepiej uczących się modeli Dostrajanie standardowych modeli Określanie zakresu dostrajania hiperparametrów Przykład — automatyczne dostrajanie za pomocą pakietu caret Zwiększanie trafności modeli za pomocą zespołów Uczenie zespołowe Popularne algorytmy zespołowe Spiętrzanie modeli do celów metanauki Spiętrzanie i mieszanie modeli Praktyczne metody mieszania i spiętrzania w języku R Praca z big data Praktyczne zastosowania uczenia głębokiego Konwolucyjne sieci neuronowe Uczenie nienadzorowane a big data Reprezentowanie koncepcji wysokowymiarowych jako osadzeń Wizualizacja danych wysokowymiarowych Adaptowanie języka R do obsługi dużych zbiorów danych Odpytywanie baz danych SQL Szybsza praca dzięki przetwarzaniu równoległemu Używanie wyspecjalizowanego sprzętu i algorytmów
Sygnatura czytelni BWEAiI: XII L 1
Media files:
Availability:
Biblioteka WEAiI
Copies are only available in the library: sygn. 155996 N (1 egz.)
Notes:
Tytuł oryginału: Machine learning with R : learn techniques for building and improving machine learning models, from data preparation to model tuning, evaluation, and working with big data, 2023
General note
Na stronie tytułowej błędny podtytuł, prawidłowy na okładce: tworzenie i doskonalenie modeli - od przygotowania danych po dostrajanie, ewaluację i pracę z big data.
Wydanie 4. odnosi się do oryginału.
Na okładce także nazwa wydawcy oryginału: Packt.
The item has been added to the basket. If you don't know what the basket is for, click here for details.
Do not show it again

Deklaracja dostępności