Uczenie maszynowe
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(63)
Forma i typ
Książki
(61)
Publikacje fachowe
(33)
Publikacje dydaktyczne
(18)
Publikacje naukowe
(16)
Artykuły
(2)
Poradniki i przewodniki
(2)
Publikacje popularnonaukowe
(1)
Dostępność
tylko na miejscu
(42)
dostępne
(24)
wypożyczone
(1)
nieokreślona
(1)
Placówka
Wypożyczalnia
(24)
Biblioteka Międzywydziałowa
(4)
Biblioteka WEiZ
(1)
Egzemplarz lektoryjny
(1)
Magazyn
(1)
Biblioteka WEAiI
(37)
Autor
Sawka Krzysztof
(6)
Grażyński Andrzej
(3)
Géron Aurélien
(3)
Matuk Konrad
(3)
Janusz Jacek
(2)
Norvig Peter
(2)
Russell Stuart J. (1962- )
(2)
Szeliga Marcin
(2)
Walczak Tomasz
(2)
Walczak Tomasz (tłumacz)
(2)
Watrak Andrzej
(2)
Wawrzyński Paweł (1978- )
(2)
Adamczyk-Karwowska Agnieszka
(1)
Albon Chris
(1)
Albrzykowski Leszek
(1)
Ameisen Emmanuel
(1)
Barth Antje
(1)
Bhargava Aditya Y
(1)
Bombik Wojciech
(1)
Bonaccorso Giuseppe (informatyka)
(1)
Brzęcki Mariusz
(1)
Chapple Mike (1975- )
(1)
Chollet François
(1)
Chounlamany-Turalska Natalia
(1)
Cichosz Paweł
(1)
Conway Drew
(1)
Deisenroth Marc Peter
(1)
Esposito Dino
(1)
Esposito Francesco
(1)
Faisal A. Aldo
(1)
Fandango Armando
(1)
Fenner Mark E
(1)
Fenrich Wojciech
(1)
Fregly Chris
(1)
Gift Noah
(1)
Goldmeier Jordan
(1)
Grus Joel
(1)
Gutman Alex J
(1)
Gutowski Maksymilian
(1)
Górczyński Robert
(1)
Hearty John
(1)
Hejducka Paulina
(1)
Hubisz Jakub
(1)
Hulten Geoff
(1)
Hurbans Rishal
(1)
Jain Ankit
(1)
Kamiński Filip
(1)
Kamiński Filip (informatyk)
(1)
Kamiński Filip (informatyka)
(1)
Kanber Burak
(1)
Kapoor Amita
(1)
Kirk Matthew
(1)
Kneusel Ronald
(1)
Kordos Mirosław
(1)
Koronacki Jacek
(1)
Krawiec Krzysztof
(1)
Krechowicz Maria
(1)
Krzywicki Tomasz (informatyk)
(1)
Krzyśko Mirosław
(1)
Kurp Feliks
(1)
Kutyłowska Małgorzata
(1)
Kwiatkowski Przemysław (informatyk)
(1)
Lapan Maxim
(1)
Liu Yuxi
(1)
Mirjalili Vahid
(1)
Moroney Laurence
(1)
Muraszkiewicz Mieczysław (1948- )
(1)
Murphy Kevin P. (1970- )
(1)
Natingga Dávid
(1)
Niedźwiedź Jakub
(1)
Nielsen Aileen
(1)
Nowak Robert (informatyk)
(1)
Nwanganga Frederick Chukwuka
(1)
Ong Cheng Soon
(1)
Osinga Douwe
(1)
Osiński Jędrzej (informatyk)
(1)
Osowski Stanisław (1948- )
(1)
Piwko Łukasz
(1)
Ponteves Hadelin de
(1)
Prajsner Piotr
(1)
Przegalińska-Skierkowska Aleksandra (1982- )
(1)
Rajani Renu
(1)
Rajca Piotr
(1)
Rajca Piotr (1970- )
(1)
Raschka Sebastian
(1)
Ray Archana Tikayat
(1)
Sagalara Leszek
(1)
Sikorski Witold (informatyk)
(1)
Spurek Przemysław (matematyk)
(1)
Struski Łukasz
(1)
Szeremiota Przemysław
(1)
Szmurło Robert
(1)
Tabor Jacek (matematyk)
(1)
Topolski Mariusz
(1)
Unold Olgierd
(1)
Weidman Seth
(1)
Werner Grzegorz
(1)
White John Myles
(1)
White Ryan T
(1)
Wieczorek Tadeusz (1951- )
(1)
Rok wydania
2020 - 2024
(35)
2010 - 2019
(23)
2000 - 2009
(5)
Okres powstania dzieła
2001-
(53)
Kraj wydania
Polska
(62)
Stany Zjednoczone
(1)
Język
polski
(61)
angielski
(2)
Odbiorca
Szkoły wyższe
(10)
Programiści
(9)
Informatycy
(6)
Analitycy danych
(4)
Biegli rewidenci
(1)
Inwestorzy indywidualni
(1)
Inwestorzy instytucjonalni
(1)
Inżynierowie oprogramowania
(1)
Księgowi
(1)
Menedżerowie
(1)
Przedsiębiorcy
(1)
Urzędnicy
(1)
Temat
Budownictwo
(2413)
Zarządzanie
(2038)
Matematyka
(1930)
Elektrotechnika
(1897)
Przedsiębiorstwa
(1790)
Uczenie maszynowe
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1177)
Wytrzymałość materiałów
(1158)
Ochrona środowiska
(1024)
Sport
(1013)
Turystyka
(953)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(932)
Automatyka
(916)
Język angielski
(874)
Samochody
(867)
Rachunkowość
(821)
Chemia
(809)
Rehabilitacja
(800)
Polska
(792)
Gospodarka
(778)
Komunikacja marketingowa
(761)
Technika
(744)
Konstrukcje budowlane
(727)
Wychowanie fizyczne
(725)
Przemysł
(724)
Prawo pracy
(712)
Piłka nożna
(710)
Unia Europejska
(699)
Transport
(673)
Elektroenergetyka
(668)
Marketing
(639)
Architektura
(637)
Innowacje
(621)
Naprężenia i odkształcenia
(615)
OZE
(606)
Programowanie (informatyka)
(591)
Programy komputerowe
(586)
Trening
(586)
Energetyka
(585)
Technologia chemiczna
(567)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(523)
Sterowanie
(520)
Materiałoznawstwo
(519)
Produkcja
(518)
Komputery
(517)
Symulacja
(516)
Inwestycje
(508)
Praca
(504)
Zarządzanie jakością
(497)
Zarządzanie zasobami ludzkimi (HRM)
(496)
Analiza matematyczna
(495)
Dzieci
(495)
Energia elektryczna
(492)
Urbanistyka
(488)
Materiały budowlane
(484)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Szkolnictwo wyższe
(470)
Finanse
(468)
Maszyny elektryczne
(468)
Przedsiębiorstwo
(468)
Psychologia
(467)
Modele matematyczne
(465)
Internet
(464)
Metale
(462)
Nauka
(456)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(433)
Rehabilitacja medyczna
(432)
Reklama
(431)
Mechanika budowli
(425)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(383)
Banki
(379)
BHP
(377)
Rachunkowość zarządcza
(374)
Temat: czas
1901-2000
(1)
1945-1989
(1)
1989-2000
(1)
2001-
(1)
Temat: miejsce
Polska
(1)
Stany Zjednoczone (USA)
(1)
Gatunek
Podręcznik
(39)
Opracowanie
(6)
Monografia
(4)
Poradnik
(4)
Artykuł z czasopisma fachowego
(1)
Podręczniki akademickie
(1)
Praca zbiorowa
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(50)
Matematyka
(10)
Gospodarka, ekonomia, finanse
(2)
Inżynieria i technika
(2)
Zarządzanie i marketing
(1)
Kartoteka zagadnieniowa
Organizacja, Zarządzanie i Marketing
(2)
63 wyniki Filtruj
Książka
W koszyku
Tytuł oryginału: TensorFlow machine learning projects : build 13 real-world projects with advanced numerical computations using the Python ecosystem.
Na okładce logo wydawcy oryginału: Packt.
Książka przeznaczona jest dla osób, które chcą nauczyć się tworzyć całościowe rozwiązania z wykorzystaniem uczenia maszynowego.
Rozdział 1. TensorFlow i uczenie maszynowe 19 Czym jest TensorFlow? 20 Rdzeń TensorFlow 20 Tensory 20 Stałe 22 Operacje 23 Węzły zastępcze 23 Tensory z obiektów Pythona 24 Zmienne 26 Tensory generowane z funkcji bibliotecznych 28 Uzyskiwanie zmiennych za pomocą tf.get_variable() 28 Graf obliczeniowy 29 Kolejność wykonywania i wczytywanie z opóźnieniem 30 Wykonywanie grafów na wielu urządzeniach obliczeniowych - CPU i GPGPU 31 Wiele grafów 35 Uczenie maszynowe, klasyfikacja i regresja logistyczna 35 Uczenie maszynowe 35 Klasyfikacja 37 Regresja logistyczna dla klasyfikacji binarnej 38 Regresja logistyczna dla klasyfikacji wieloklasowej 38 Regresja logistyczna z TensorFlow 39 Regresja logistyczna z Keras 41 Kwestie do rozważenia 43 Materiały dodatkowe 43 Rozdział 2. Wykorzystanie uczenia maszynowego do wykrywania egzoplanet w przestrzeni kosmicznej 45 Czym jest drzewo decyzyjne? 46 Do czego potrzebne są nam zespoły? 47 Metody zespołowe oparte na drzewach decyzyjnych 47 Lasy losowe 47 Wzmacnianie gradientowe 49 Zespoły oparte na drzewach decyzyjnych w TensorFlow 51 Estymator TensorForest 51 Estymator wzmacnianych drzew TensorFlow 52 Wykrywanie egzoplanet w przestrzeni kosmicznej 52 Budowanie modelu TFBT do wykrywania egzoplanet 56 Kwestie do rozważenia 61 Materiały dodatkowe 61 Rozdział 3. Analiza wydźwięku w przeglądarce przy użyciu TensorFlow.js 63 TensorFlow.js 64 Optymalizacja Adam 65 Strata kategoryzacyjnej entropii krzyżowej 66 Osadzanie słów 67 Budowanie modelu analizy wydźwięku 68 Wstępne przetwarzanie danych 69 Budowanie modelu 70 Uruchamianie modelu w przeglądarce przy użyciu TensorFlow.js 71 Kwestie do rozważenia 75 Rozdział 4. Klasyfikacja cyfr przy użyciu TensorFlow Lite 77 Czym jest TensorFlow Lite? 78 Mierniki oceny modeli klasyfikacji 80 Klasyfikacja cyfr przy użyciu TensorFlow Lite 81 Wstępne przetwarzanie danych i definiowanie modelu 82 Konwersja modelu TensorFlow na TensorFlow Lite 84 Kwestie do rozważenia 91 Rozdział 5. Rozpoznawanie mowy i ekstrakcja tematów przy użyciu NLP 93 Platformy i narzędzia do zamiany mowy na tekst 94 Zbiór poleceń głosowych Google Speech Commands Dataset 95 Architektura sieci neuronowej 95 Moduł ekstrakcji cech 96 Moduł głębokiej sieci neuronowej 96 Szkolenie modelu 97 Kwestie do rozważenia 99 Materiały dodatkowe 100 Rozdział 6. Przewidywanie cen akcji przy użyciu regresji procesu gaussowskiego 101 Twierdzenie Bayesa 102 Wprowadzenie do wnioskowania bayesowskiego 103 Wprowadzenie do procesów gaussowskich 104 Wybór jądra w PG 106 Zastosowanie PG do prognozowania rynku akcji 107 Tworzenie modelu prognozowania kursu akcji 109 Zrozumienie uzyskanych wyników 112 Kwestie do rozważenia 122 Rozdział 7. Wykrywanie oszustw dotyczących kart kredytowych przy użyciu autokoderów 123 Autokodery 124 Budowanie modelu wykrywania oszustw finansowych 125 Definiowanie i szkolenie modelu wykrywania oszustw finansowych 126 Testowanie modelu wykrywania oszustw finansowych 128 Kwestie do rozważenia 134 Rozdział 8. Generowanie niepewności w klasyfikatorze znaków drogowych przy użyciu bayesowskich sieci neuronowych 135 Bayesowskie uczenie głębokie 136 Twierdzenie Bayesa w sieciach neuronowych 137 TensorFlow Probability, wnioskowanie wariacyjne i metoda Monte Carlo 138 Budowanie bayesowskiej sieci neuronowej 140 Definiowanie, szkolenie i testowanie modelu 142 Kwestie do rozważenia 152 Rozdział 9. Dopasowywanie torebek na podstawie zdjęć butów z wykorzystaniem sieci DiscoGAN 153 Modele generatywne 154 Szkolenie sieci GAN 155 Zastosowania 157 Wyzwania 157 Sieci DiscoGAN 158 Podstawowe jednostki sieci DiscoGAN 159 Modelowanie sieci DiscoGAN 162 Budowanie modelu DiscoGAN 163 Kwestie do rozważenia 169 Rozdział 10. Klasyfikowanie obrazów odzieży przy użyciu sieci kapsułowych 171 Znaczenie sieci kapsułowych 172 Kapsuły 173 Jak działają kapsuły? 173 Algorytm trasowania dynamicznego 175 Wykorzystanie architektury CapsNet do klasyfikowania obrazów ze zbioru Fashion MNIST 178 Implementacja architektury CapsNet 178 Szkolenie i testowanie modelu 182 Rekonstrukcja przykładowych obrazów 187 Ograniczenia sieci kapsułowych 189 Rozdział 11. Tworzenie wysokiej jakości rekomendacji produktów przy użyciu TensorFlow 191 Systemy rekomendacji 192 Filtrowanie oparte na treści 193 Zalety algorytmów filtrowania opartego na treści 193 Wady algorytmów filtrowania opartego na treści 193 Filtrowanie kolaboratywne 193 Systemy hybrydowe 194 Rozkład macierzy 194 Przedstawienie zbioru danych Retailrocket 195 Analiza zbioru danych Retailrocket 195 Wstępne przetwarzanie danych 196 Model rozkładu macierzy dla rekomendacji Retailrocket 197 Model sieci neuronowej dla rekomendacji Retailrocket 200 Kwestie do rozważenia 202 Materiały dodatkowe 202 Rozdział 12. Wykrywanie obiektów na dużą skalę za pomocą TensorFlow 203 Wprowadzenie do Apache Spark 204 Rozproszony TensorFlow 206 Uczenie głębokie poprzez rozproszony TensorFlow 207 Poznaj TensorFlowOnSpark 210 Architektura TensorFlowOnSpark 210 Szczegóły API TFoS 211 Rozpoznawanie odręcznie zapisanych cyfr przy użyciu TFoS 212 Wykrywanie obiektów za pomocą TensorFlowOnSpark i Sparkdl 215 Transfer wiedzy 215 Interfejs Sparkdl 216 Budowanie modelu wykrywania obiektów 217 Rozdział 13. Generowanie skryptów książek przy użyciu LSTM 223 Rekurencyjne sieci neuronowe 224 Wstępne przetwarzanie danych 225 Definiowanie modelu 227 Szkolenie modelu 228 Definiowanie i szkolenie modelu generującego tekst 228 Generowanie skryptów książek 233 Kwestie do rozważenia 236 Rozdział 14. Gra w Pac-Mana przy użyciu uczenia głębokiego przez wzmacnianie 237 Uczenie przez wzmacnianie 238 Uczenie przez wzmacnianie a uczenie nadzorowane i nienadzorowane 238 Składniki uczenia przez wzmacnianie 239 OpenAI Gym 240 Gra Pac-Man w OpenAI Gym 241 Sieć DQN w uczeniu głębokim przez wzmacnianie 244 Zastosowanie sieci DQN do gry 246 Materiały dodatkowe 250 Rozdział 15. Co dalej? 251 Wdrażanie modeli TensorFlow do produkcji 251 TensorFlow Hub 252 TensorFlow Serving 254 TensorFlow Extended 255 Zalecenia dotyczące budowania aplikacji wykorzystujących sztuczną inteligencję 257 Ograniczenia uczenia głębokiego 258 Zastosowania sztucznej inteligencji w różnych branżach 259 Względy etyczne w sztucznej inteligencji 260
Sygnatura czytelni BWEAiI: XII Ł 174
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149867 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Hands-on machine learning with JavaScript : solve complex computational web problems using machine learning.
Indeks.
Rozdział 1. Poznawanie potencjału języka JavaScript 15 Język JavaScript 15 Uczenie maszynowe 18 Zalety i wyzwania związane ze stosowaniem języka JavaScript 20 Inicjatywa CommonJS 21 Node.js 22 Język TypeScript 24 Usprawnienia wprowadzone w ES6 26 Let i const 26 Klasy 27 Importowanie modułów 29 Funkcje strzałkowe 29 Literały obiektowe 31 Funkcja for...of 31 Obietnice 32 Funkcje async/wait 33 Przygotowywanie środowiska programistycznego 34 Instalowanie Node.js 34 Opcjonalne zainstalowanie Yarn 35 Tworzenie i inicjowanie przykładowego projektu 35 Tworzenie projektu "Witaj, świecie!" 36 Rozdział 2. Badanie danych 39 Przetwarzanie danych 39 Identyfikacja cech 42 Przekleństwo wymiarowości 43 Wybór cech oraz wyodrębnianie cech 45 Przykład korelacji Pearsona 48 Czyszczenie i przygotowywanie danych 51 Obsługa brakujących danych 51 Obsługa szumów 53 Obsługa elementów odstających 58 Przekształcanie i normalizacja danych 61 Rozdział 3. Przegląd algorytmów uczenia maszynowego 69 Wprowadzenie do uczenia maszynowego 70 Typy uczenia 70 Uczenie nienadzorowane 72 Uczenie nadzorowane 75 Uczenie przez wzmacnianie 83 Kategorie algorytmów 84 Grupowanie 84 Klasyfikacja 84 Regresja 85 Redukcja wymiarowości 85 Optymalizacja 86 Przetwarzanie języka naturalnego 86 Przetwarzanie obrazów 87 Rozdział 4. Algorytmy grupowania na podstawie klastrów 89 Średnia i odległość 90 Pisanie algorytmu k-średnich 93 Przygotowanie środowiska 93 Inicjalizacja algorytmu 94 Testowanie losowo wygenerowanych centroidów 99 Przypisywanie punktów do centroidów 100 Aktualizowanie położenia centroidów 102 Pętla główna 106 Przykład 1. - k-średnich na prostych danych dwuwymiarowych 107 Przykład 2. - dane trójwymiarowe 114 Algorytm k-średnich, kiedy k nie jest znane 116 Rozdział 5. Algorytmy klasyfikacji 123 k najbliższych sąsiadów 124 Implementacja algorytmu KNN 125 Naiwny klasyfikator bayesowski 138 Tokenizacja 140 Implementacja algorytmu 141 Przykład 3. - ocenianie charakteru recenzji filmów 150 Maszyna wektorów nośnych 154 Lasy losowe 162 Rozdział 6. Algorytmy reguł asocjacyjnych 169 Z matematycznego punktu widzenia 171 Z punktu widzenia algorytmu 174 Zastosowania reguły asocjacji 176 Przykład - dane ze sprzedaży detalicznej 178 Rozdział 7. Przewidywanie z użyciem algorytmów regresji 183 Porównanie regresji i klasyfikacji 184 Podstawy regresji 185 Przykład 1. - regresja liniowa 189 Przykład 2. - regresja wykładnicza 193 Przykład 3. - regresja wielomianowa 198 Inne techniki analizy szeregów czasowych 200 Filtrowanie 201 Analiza sezonowości 203 Analiza fourierowska 204 Rozdział 8. Algorytmy sztucznych sieci neuronowych 209 Opis koncepcji sieci neuronowych 210 Uczenie metodą propagacji wstecznej 214 Przykład - XOR z użyciem TensorFlow.js 217 Rozdział 9. Głębokie sieci neuronowe 227 Konwolucyjne sieci neuronowe 228 Konwolucje oraz warstwy konwolucyjne 229 Przykład - zbiór MNIST ręcznie zapisanych cyfr 234 Rekurencyjne sieci neuronowe 241 SimpleRNN 242 Topologia GRU 246 Długa pamięć krótkoterminowa - LSTM 249 Rozdział 10. Przetwarzanie języka naturalnego w praktyce 253 Odległość edycyjna 255 Ważenie termów - odwrotna częstość w dokumentach 257 Tokenizacja 263 Stemming 270 Fonetyka 272 Oznaczanie części mowy 274 Techniki przekazywania słów do sieci neuronowych 276 Rozdział 11. Stosowanie uczenia maszynowego w aplikacjach czasu rzeczywistego 281 Serializacja modeli 282 Uczenie modeli na serwerze 283 Wątki robocze 286 Modele samodoskonalące oraz spersonalizowane 287 Potokowanie danych 290 Przeszukiwanie danych 291 Łączenie i agregacja danych 293 Przekształcenia i normalizacja 295 Przechowywanie i dostarczanie danych 298 Rozdział 12. Wybieranie najlepszego algorytmu dla aplikacji 303 Tryb uczenia 305 Zadanie do wykonania 308 Format, postać, wejście i wyjście 309 Dostępne zasoby 312 W razie problemów 313 Łączenie modeli 316
Sygnatura czytelni BWEAiI: XII N 134
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148515 N (1 egz.)
Brak okładki
Książka
W koszyku
Na grzbiecie: Centrum Edukacyjne Promise, Grupa APN Promise.
Na okładce i karcie tytułowej: OʾReilly.
Indeks.
1.W przybliżeniu prawdopodobnie poprawne oprogramowanie Prawidłowe pisanie oprogramowania SOLID Testowanie albo TDD Refaktoring Pisanie prawidłowego oprogramowania Pisanie odpowiedniego oprogramowania przy zastosowaniu uczenia maszynowego Czym dokładnie jest uczenie maszynowe? Wysoko oprocentowany dług uczenia maszynowego Zastosowanie zasad SOLID w uczeniu maszynowym Kod uczenia maszynowego jest skomplikowany TDD: metoda naukowa 2.0 Refaktoring wiedzy 2.Szybkie wprowadzenie do uczenia maszynowego Czym jest uczenie maszynowe? Uczenie nadzorowane Uczenie nienadzorowane Uczenie wzmacniane Co może osiągnąć uczenie maszynowe? Notacja matematyczna używana w tej książce 3.K najbliższych sąsiadów Jak ustalić, czy chcemy kupić dom? Ile wart jest dany dom? Regresja hedonistyczna Czym jest sąsiedztwo? K najbliższych sąsiadów Najbliższe sąsiedztwo Odległości Nierówność trójkąta Odległość geometryczna Odległości obliczeniowe Odległości statystyczne Przekleństwo wymiarowości Jak wybrać K? Zgadywanie K Heurystyka wyboru K Wycenianie domów w Seattle Informacje o danych Ogólna strategia Projekt kodowania i testowania Konstrukcja regresora dla algorytmu K najbliższych sąsiadów Testowanie algorytmu K najbliższych sąsiadów 4.Naiwna klasyfikacja bayesowska Wykorzystanie twierdzenia Bayesa do znajdywania oszukańczych zamówień Prawdopodobieństwa warunkowe Symbole prawdopodobieństwa Odwrócone prawdopodobieństwo warunkowe (czyli twierdzenie Bayesa) Naiwny klasyfikator bayesowski Reguła łańcuchowa Naiwność w rozumowaniu bayesowskim Pseudozliczanie Filtr spamu Uwagi przygotowawcze Projekt kodowania i testowania Źródło danych EmailObject Analiza leksykalna i kontekst SpamTrainer Minimalizacja błędów przez sprawdzanie krzyżowe 5.Drzewa decyzyjne i losowe lasy decyzyjne Niuanse dotyczące grzybów Klasyfikowanie grzybów przy wykorzystaniu wiedzy ludowej Znajdowanie optymalnego punktu zwrotnego Zysk informacyjny Niejednorodność Giniego Redukcja wariancji Przycinanie drzew Uczenie zespołowe Pisanie klasyfikatora grzybów 6.Ukryte modele Markowa Śledzenie zachowania użytkownika przy użyciu automatów skończonych Emisje/obserwacje stanów Uproszczenie poprzez założenie Markowa Wykorzystanie łańcuchów Markowa zamiast automatu skończonego Ukryty model Markowa Ocena: algorytm Naprzód-Wstecz Matematyczne przedstawienie algorytmu Naprzód-Wstecz Wykorzystanie zachowania użytkownika Problem dekodowania poprzez algorytm Viterbiego Problem uczenia Oznaczanie części mowy z wykorzystaniem korpusu Browna Uwagi przygotowawcze Projekt kodowania i testowania Podstawa naszego narzędzia do oznaczania części mowy: CorpusParser Pisanie narzędzia do oznaczania części mowy Sprawdzanie krzyżowe w celu potwierdzenia poprawności modelu Jak ulepszyć ten model 7.Maszyny wektorów nośnych Zadowolenie klientów jako funkcja tego, co mówią Klasyfikacja nastrojów przy użyciu maszyn wektorów nośnych Teoria stojąca za maszynami wektorów nośnych Granica decyzyjna Maksymalizowanie granic Sztuczka jądrowa: transformacja cech Optymalizacja przez poluzowanie Analizator nastrojów Uwagi przygotowawcze Projekt kodowania i testowania Strategie testowania maszyny wektorów nośnych Klasa Corpus Klasa CorpusSet Sprawdzanie poprawności modelu i klasyfikator nastrojów Agregowanie nastrojów Wykładnicza ważona średnia ruchoma Mapowanie nastroju do wyniku finansowego 8.Sieci neuronowe Czym jest sieć neuronowa? Historia sieci neuronowych Logika boolowska Perceptrony Jak konstruować sieci neuronowe ze sprzężeniem w przód Warstwa wejściowa Warstwy ukryte Neurony Funkcje aktywacyjne Warstwa wyjściowa Algorytmy uczące Zasada delty Propagacja wsteczna QuickProp RProp Budowanie sieci neuronowych Ile ukrytych warstw? Ile neuronów dla każdej warstwy? Tolerancja błędów i maksymalna liczba epok Wykorzystanie sieci neuronowej do klasyfikowania języków Uwagi przygotowawcze Projekt kodowania i testowania Dane Pisanie testu podstawowego dla języka Przejście do klasy Network Dostrajanie sieci neuronowej Precyzja i czułość w sieciach neuronowych Podsumowanie przykładu 9. Grupowanie Badanie danych bez żadnego błędu systematycznego Kohorty użytkowników Testowanie mapowań do grup Zdatność grupy Współczynnik zarysu Porównywanie wyników z prawdą bazową Grupowanie K-średnich Algorytm K-średnich Słabe strony grupowania K-średnich Grupowanie przez maksymalizację wartości oczekiwanej Algorytm Twierdzenie o niemożności Przykład: kategoryzowanie muzyki Uwagi przygotowawcze Zbieranie danych Projekt kodowania Analizowanie danych przez algorytm K-średnich Grupowanie naszych danych Wyniki z grupowania danych dotyczących muzyki jazzowej z użyciem maksymalizowania wartości oczekiwanej 10.Poprawianie modeli i wydobywania danych Klub dyskusyjny Wybieranie lepszych danych Wybieranie cech Wyczerpujące wyszukiwanie Losowe wybieranie cech Lepszy algorytm wybierania cech Wybieranie cech przez minimalizowanie redundancji i maksymalizowanie istotności Transformacja cech i rozkład macierzy Analiza głównych składowych Analiza niezależnych składowych Uczenie zespołowe Grupowanie typu bootstrap Boosting Przypomnienie algorytmów uczenia maszynowego Jak wykorzystywać te informacje do rozwiązywania problemów
Sygnatura czytelni BWEAiI: XII Ł 98
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146120 N (1 egz.)
Książka
W koszyku
Deep learning : praktyczne wprowadzenie z zastosowaniem środowiska Pythona / Ron Kneusel ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 472 strony : fotografie, ilustracje, wykresy ; 23 cm.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: No starch press.
Indeks.
Środowisko operacyjne NumPy scikit-learn Keras i TensorFlow Instalacja narzędzi Podstawy algebry liniowej Wektory Macierze Mnożenie wektorów i macierzy Statystyka i prawdopodobieństwo Statystyka opisowa Rozkłady prawdopodobieństwa Testy statystyczne Procesory graficzne (GPU) 2. Korzystanie z Pythona Interpreter Pythona Instrukcje i białe znaki Zmienne i podstawowe struktury danych Przedstawianie liczb Zmienne Łańcuchy znaków Listy Słowniki Struktury sterowania Instrukcje if-elif-else Pętle for Pętle while Instrukcje break i continue Instrukcja with Obsługa błędów za pomocą bloków try-except Funkcje Moduły 3. Biblioteka NumPy Dlaczego NumPy? Tablice a listy Testowanie szybkości tablic i list Definiowanie tablicy za pomocą funkcji, np. array Definiowanie tablic wypełnionych zerami i jedynkami Dostęp do elementów tablicy Indeksowanie tablicowe Uzyskiwanie wycinków tablicy Wielokropek Operatory i rozgłaszanie Dane wejściowe i wyjściowe tablic Liczby losowe Biblioteka NumPy i obrazy 4. Praca z danymi Klasy i etykiety Cechy i wektory cech Dobór cech i klątwa wymiarowości Własności dobrego zestawu danych Interpolacja i ekstrapolacja Główny rozkład prawdopodobieństwa Rozkład a priori Przykłady mylące Rozmiar zestawu danych Przygotowanie danych Skalowanie cech Brakujące cechy Dane uczące, walidacyjne i testowe Trzy podzbiory Dzielenie zestawu danych k-krotny sprawdzian krzyżowy Analiza danych Wyszukiwanie problemów z danymi 5. Budowanie zestawów danych Kosaćce (zestaw danych Iris) Nowotwory piersi (zestaw danych Breast Cancer) Cyfry zapisane pismem odręcznym (zestaw danych MNIST) Różne obrazy (zestaw danych CIFAR-10) Rozszerzanie danych Dlaczego należy rozszerzać dane uczące? Sposoby rozszerzania danych Rozszerzanie zestawu danych Iris Rozszerzanie zestawu danych CIFAR-10 6. Klasyczne uczenie maszynowe Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne i lasy losowe Rekurencja Budowanie drzew decyzyjnych Lasy losowe Maszyny wektorów nośnych Marginesy Wektory nośne Optymalizacja Jądra 7. Eksperymentowanie z klasycznymi modelami Eksperymenty z użyciem zestawu danych Iris Testowanie klasycznych modeli Implementacja klasyfikatora najbliższego centroidu Eksperymenty z użyciem zestawu danych Breast Cancer Dwa pierwsze przebiegi testowe Skutek losowych podziałów Dodawanie k-krotnego sprawdzianu krzyżowego Poszukiwanie hiperparametrów Eksperymenty z użyciem zestawu danych MNIST Testowanie klasycznych modeli Analiza czasu działania Eksperymenty z głównymi składowymi analizy PCA Tasowanie zestawu danych Podsumowanie klasycznych modeli Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Lasy losowe Maszyny wektorów nośnych Kiedy używać klasycznych modeli? Korzystanie z małych zestawów danych Ograniczone zasoby obliczeniowe Dostęp do wyjaśnialnych modeli Praca z danymi wektorowymi 8. Wprowadzenie do sieci neuronowych Anatomia sieci neuronowej Neuron Funkcje aktywacji Architektura sieci Warstwy wyjściowe Wagi i obciążenia Implementacja prostej sieci neuronowej Przygotowanie zestawu danych Implementacja sieci neuronowej Uczenie i testowanie sieci neuronowej 9. Uczenie sieci neuronowej Algorytm gradientu prostego Wyszukiwanie minimów Aktualizowanie wag Stochastyczny spadek wzdłuż gradientu Grupy i minigrupy Funkcje wypukłe i niewypukłe Kończenie uczenia Aktualizowanie współczynnika uczenia Momentum Propagacja wsteczna Propagacja wsteczna - ujęcie pierwsze Propagacja wsteczna - ujęcie drugie Funkcje straty Błąd bezwzględny i błąd średniokwadratowy Entropia krzyżowa Inicjalizowanie wag Przetrenowanie i regularyzacja Przetrenowanie Regularyzacja Regularyzacja L2 Porzucanie 10. Eksperymentowanie z sieciami neuronowymi Nasz zestaw danych Klasa MLPClassifier Struktura sieci i funkcje aktywacji Kod Rozmiar grupy Podstawowy współczynnik uczenia Rozmiar zbioru uczącego Regularyzacja L2 Momentum Inicjalizacja wag Kolejność cech Ocenianie modeli Dlaczego dokładność jest niewystarczająca? Macierz pomyłek 2×2 Wskaźniki wyprowadzane z macierzy pomyłek Wyprowadzanie wskaźników na podstawie macierzy pomyłek Interpretowanie modeli za pomocą wskaźników Zaawansowane wskaźniki Informatywność i nacechowanie Wskaźnik F1 Współczynnik kappa Cohena Współczynnik korelacji Matthewsa Implementacja zaawansowanych wskaźników Krzywa charakterystyki operacyjnej odbiornika Dobór modeli Rysowanie wykresu wskaźników Analiza krzywej ROC Porównywanie modeli za pomocą analizy ROC Generowanie krzywej ROC Krzywa precyzji-czułości Przypadki wieloklasowe Rozszerzanie macierzy pomyłek Obliczanie dokładności ważonej Wieloklasowy współczynnik korelacji Matthewsa Wprowadzenie do splotowych sieci neuronowych Dlaczego splotowe sieci neuronowe? Splot Skanowanie za pomocą jądra Splot w przetwarzaniu obrazów Anatomia splotowej sieci neuronowej Różne typy warstw Przepuszczanie danych przez sieć splotową Warstwy splotowe Mechanizm działania warstwy splotowej Korzystanie z warstwy splotowej Wielokrotne warstwy splotowe Inicjalizacja warstwy splotowej Warstwy łączące Warstwy w pełni połączone Pełne warstwy splotowe Eksperymentowanie z biblioteką Keras i zestawem danych MNIST Budowanie sieci splotowych w bibliotece Keras Wczytywanie danych MNIST Budowanie modelu Uczenie i ocena modelu Tworzenie wykresu funkcji błędu Podstawowe eksperymenty Eksperymenty na architekturze Rozmiar zbioru uczącego, minigrup oraz liczba epok Optymalizatory Pełne sieci splotowe Budowa i trenowanie modelu Przygotowanie obrazów testowych Testowanie modelu Potasowane cyfry MNIST Eksperymentowanie z zestawem danych CIFAR-10 Zestaw CIFAR-10 - przypomnienie Praca na pełnym zestawie CIFAR-10 Budowanie modeli Analizowanie modeli Zwierzę czy pojazd? Model binarny czy wieloklasowy? Uczenie transferowe Strojenie modelu Przygotowanie zestawów danych Dostosowanie modelu do strojenia Testowanie modelu Studium przypadku: klasyfikowanie próbek dźwiękowych Budowanie zestawu danych Rozszerzanie zestawu danych Wstępne przetwarzanie danych Klasyfikowanie cech dźwiękowych Modele klasyczne Tradycyjna sieć neuronowa Splotowa sieć neuronowa Spektrogramy Klasyfikowanie spektrogramów Inicjalizacja, regularyzacja i normalizacja wsadowa Analiza macierzy pomyłek
Sygnatura czytelni BWEAiI: XII Ł 215
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153005 (1 egz.)
Brak okładki
Książka
W koszyku
(Rozprawy Naukowe / [Akademia Techniczno-Humanistyczna w Bielsku-Białej], ISSN 1643-983X ; nr 59)
Bibliografia na stronach [235]-244.
Part I Instance Selection with Similarity-based Methods Introduction to Instance Selection LI Data: Features and Instances 1.2Purpose and Idea of Instance Selection 1.3Software Packages 1.4Datasets Used in this Book Instance Selection in Classification Tasks 2.1Review of Selected Similarity-based Instance Selection Methods 2.2Reducing Computational Complexity 2.3Other Evaluation Models 2.4Comparison of Selected Similarity-based Instance Selection Methods Instance Selection in Regression Tasks 3.1Threshold-based Instance Selection for Regression Tasks 3.2Discretization-based Instance Selection for Regression Tasks 3.3Data Partitioning Weighting Schemes in Instance Selection 4.1Attribute Weighting 4.2Distance Weighting 4.3Diversity Weighting 4.4Outlier Weighting Ensemble Methods in Instance Selection 5.1Bagging of Instance Selection Algorithms 5.2Experimental Evaluation of Instance Selection Bagging Ensembles for Classification Tasks 5.4 Experimental Evaluation of Instance Selection Bagging Ensembles for Regression Tasks Joint Feature and Instance Selection 6.1Feature Filters 6.2Feature Wrappers 6.3Joined Feature and Instance Selection Part II Instance Selection with Evolutionary Methods Introduction to Evolutionary Optimization 7.1Basics of Genetic Algorithms 7.2Fitness Function and Selection 7.3Crossover 7.4Population Size and Initialization 7.5Mutation 7.6Elitism and Steady State Genetic Algorithms 7.7CHC Genetic Algorithms 7.8Cooperative Coevolution 7.9Multi-Objective Evolutionary Algorithms Single-Objective Evolutionary Instance Selection 8.1Encoding 8.2The Objectives and Fitness Function 8.3k-NN as the Inner Evaluation Algorithm Multi-Objective Evolutionary Instance Selection 9.1Encoding 9.2The Objectives 9.3Pareto Front 9.4Instance Selection Process 9.5Choice of the Multi-Objective Genetic Algorithm and its Parameters 9.6.1Problem Description 9.6.2Experimental Evaluation and Discussion 9.7Assessment of Population Initialization Methods 9.7.1Problem Description 9.7.2Experimental Evaluation and Discussion 9.8Tuning k-NN Parameters 9.8.1Problem Description 9.8.2Experimental Evaluation and Discussion 9.9Evaluating Instance Weighting Scheme 9.9.1Problem Description 9.9.2Experimental Evaluation and Discussion 9.10Comparison with Other Methods 9.11Classification Problems Additional Enhancements 10.1Data Space Partitioning 10.2Multiply Fronts to Extend Range and Prevent Over-fitting Optimization of Evolutionary Instance Selection 11.1Optimization of Genetic Algorithms Parameters 11.2.1Population Size and Multi-parent Crossover 11.2.2Fitness Function 11.2.3Shortening Chromosome 11.3Accelerating Calculations of Distance Matrix 11.4Analysis of Computational Time and Complexity Joint Evolutionary Feature and Instance Selection 12.1Sequential Evolutionary Feature and Instance Selection 12.2Features and Instances Encoded in the Same Chromosome 12.3Coevolutionary Feature and Instance Selection Instance Selection for Multi-Output Data 13.1Multi-Objective Evolutionary Instance Selection for Multi-output Regression 13.2Experimental Evaluation 13.3.1Experimental Setup 13.3.2Experimental Results Part III Instance Selection Embedded into Neural Networks Introduction to Neural Networks 14.1Multilayer Perceptron (MLP) 14.2Error Surface 14.3Neural Network Learning Algorithms 14.4.1Backpropagation and Rprop 14.4.2Variable Step Search Algorithm (VSS) Noise Reduction in Neural Network Learning 15.1Noise Reduction With Error Function Modifications 15.2Static Robust Error Measures 15.3.1Least Trimmed Absolute Values (LTA) 15.3.2Iterative Least Median of Squares (ILMedS) 15.3.3Least Mean Log Squares (LMLS) 15.3.4MAE 15.3.5Median Input Function (MIF) 15.3.6MedSum 15.4Dynamic Robust Error Measures 15.4.1 Trapeziod, Exponential, Three-Parabolic and Triangular Error Functions 15.5Experimental Evaluation and Conclusions Joining Embedded and Similarity-based Instance Selection Joint Feature and Instance Selection from Neural Networks 17.1Feature Selection Embedded into Neural Network Learning 17.2Other Methods from Literature 17.3Data Reduction with Boundary Vectors in Neural Networks 17.4Joint Feature and Instance Selection Embedded into Network Learning Special Neural Networks for Data Selection and Rule Extraction 18.1Network Construction and Training 18.2Rule Extraction and Feature Selection for Classification Tasks 18.3Rule Extraction and Feature Selection for Regression Tasks 18.4Instance Selection 18.6.1Decompositional Rule Extraction from Neural Networks 18.6.2Pedagogical Rule Extraction from Neural Networks 18.6.3Hybrid Rule Extraction from Neural Networks
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 147973 (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 112761 N (1 egz.)
Brak okładki
Książka
W koszyku
(Rozprawy / Politechnika Poznańska, ISSN 0551-6528 ; nr 385)
Bibliogr. s. [133]-143.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Magazyn
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 110045 LE (1 egz.)
Brak okładki
Książka
W koszyku
(Monografie, Studia, Rozprawy / Politechnika Świętokrzyska, ISSN 1897-2691 ; M150)
(Inżynieria Środowiska i Energetyka)
Bibliografia, netografia na stronach 308-320.
1.Istota ryzyka i jego specyfika w analizowanych nowoczesnych przedsięwzięciach inżynierii środowiska 2.1.Istota ryzyka 2.2.Istota zarządzania ryzykiem 2.3.Charakterystyka analizowanych nowoczesnych przedsięwzięć inżynierii środowiska i aktualny stan wiedzy na temat zarządzania ryzykiem w tego rodzaju przedsięwzięciach 2.3.1.Budownictwo pasywne 2.3.2.Budownictwo zasobooszczędne z wykorzystaniem odnawialnych źródeł energii 2.3.3.Przedsięwzięcia innowacyjne inżynierii środowiska 2.3.4.Zrównoważona budowa infrastruktury podziemnej miast 2.3.5.Przedsięwzięcia inżynierii środowiska realizowane wspólnie przez dwa lub więcej podmiotów 2.4.Specyfika ryzyka i zarządzania ryzykiem w nowoczesnych przedsięwzięciach inżynierii środowiska 3.Proponowana metodyka zarządzania ryzykiem przeznaczona dla nowoczesnych przedsięwzięć inżynierii środowiska 3.1.Założenia przy projektowaniu metodyki 3.2.Charakterystyka proponowanej metodyki zarządzania ryzykiem 4.Proponowany hybrydowy model zarządzania ryzykiem z wykorzystaniem metod zarządzania jakością (metody FMEA i analizy Pareto-Lorenza) - model Ml 4.1.Podstawy teoretyczne modelu Ml 4.2.Proponowane podejście 4.3.Przykład zastosowania modelu Ml do oceny ryzyka w kategorii I NPIS 4.3.1.Identyfikacja ryzyka w budownictwie pasywnym 4.3.2.Jakościowa analiza ryzyka w budownictwie pasywnym 4.3.3.Ilościowa ocena ryzyka w budownictwie pasywnym z wykorzystaniem metody FMEA i analizy Pareto-Lorenza 4.4.Przykład zastosowania modelu M1 do oceny ryzyka w kategorii IV NPIŚ 4.4.1.Ocena częstotliwości występowania i dotkliwości skutków ryzyka w technologii HDD w skali FMEA 4.4.2.Identyfikacja możliwości wykrywania wad w technologii HDD i ich ocena 4.4.3.Wyniki oceny ryzyka w technologii HDD z wykorzystaniem metody FMEA i analizy Pareto-Lorenza 4.5.Przykład zastosowania modelu M1 do oceny ryzyka w kategorii V NPIŚ 5. Proponowane hybrydowe modele zarządzania ryzykiem z wykorzystaniem logiki rozmytej 5.1.Podstawy teoretyczne modeli 5.1.1.Analiza drzewa niezdatności i drzewa zdarzeń 5.1.2.Teoria zbiorów rozmytych 5.2.Model zarządzania ryzykiem z wykorzystaniem hybrydowego drzewa niezdatności zintegrowanego z macierzą reagowania na ryzyko oraz elementów logiki rozmytej - model M2 5.2.1.Opis matematyczny modelu M2 5.2.2.Przykład zastosowania modelu M2 w kategorii I NPIŚ ] 5.2.2.1.Identyfikacja zdarzeń niepożądanych 5.2.2.2.Identyfikacja możliwości reakcji na ryzyko i redukcji ryzyka 5.2.2.3.Jakościowa i ilościowa analiza ryzyka 5.2.2.4.Porównanie różnych możliwości reakcji na ryzyko 5.2.2.5.Podsumowanie przykładu 5.2.3.Przykład zastosowania modelu M2 w kategorii II NPIŚ 5.2.3.1.Identyfikacja ryzyka 5.2.3.2.Identyfikacja możliwości reakcji na ryzyko i redukcji ryzyka 5.2.3.3.Jakościowa i ilościowa analiza ryzyka 5.2.3.4.Porównanie różnych możliwości reakcji na ryzyko 5.2.3.5.Podsumowanie przykładu 5.2.4.Przykład zastosowania modelu M2 w kategorii III NPIŚ 5.2.4.1.Identyfikacja ryzyka 5.2.4.2.Identyfikacja możliwości reakcji na ryzyko i redukcji ryzyka 5.2.4.3.Jakościowa i ilościowa analiza ryzyka 5.2.4.4.Porównanie różnych możliwości reakcji na ryzyko 5.2.4.5.Zarządzanie ryzykiem przy wykonywaniu prototypowych ruchomych żaluzji fasadowych zintegrowanych z fotowoltaiką 5.2.5.Przykład zastosowania modelu M2 w kategorii IV NPIŚ 5.2.5.1.Identyfikacja ryzyka 5.2.5.2.Identyfikacja możliwości reakcji na ryzyko i redukcji ryzyka 5.2.5.3.Jakościowa i ilościowa analiza ryzyka 5.2.5.4.Porównanie różnych możliwości reakcji na ryzyko 5.2.5.5.Podsumowanie przykładu 5.2.6.Przykład zastosowania modelu M2 w kategorii V NPIŚ 5.2.6.1.Identyfikacja ryzyka 5.2.6.2.Jakościowa i ilościowa analiza ryzyka 5.3.Model zarządzania ryzykiem z wykorzystaniem hybrydowego rozmytego drzewa niezdatności i drzewa zdarzeń - model M3 5.3.1.Opis matematyczny modelu M3 5.3.2.Przykład zastosowania modelu M3 w kategorii IV NPIŚ 6. Proponowane modele zarządzania ryzykiem z wykorzystaniem uczenia maszynowego 6.1.Podstawy teoretyczne modeli 6.1.1.Istota uczenia maszynowego 6.1.2.Wybrane klasyfikatory stosowane w uczeniu maszynowym 6.1.3.Możliwości wykorzystania uczenia maszynowego w zarządzaniu ryzykiem 6.2.Proponowane podejście (M4-M11) 6.3.Zbieranie danych i identyfikacja atrybutów 6.4.Profilowanie danych 6.5.Przetwarzanie danych 6.6.Sposób oceny jakości modeli 6.7.Proponowany model oceny ryzyka z wykorzystaniem regresji logistycznej (M4) 6.8.Proponowane modele oceny ryzyka z wykorzystaniem uczenia maszynowego w oparciu o K-najbliższych sąsiadów (M5), naiwny klasyfikator Bayesa (M6), kwadratową analizę dyskryminacyjną (M7), drzewa decyzyjne wzmocnione metodą AdaBoost (M8) i maszynę wektorów nośnych (M9) 6.9.Proponowany model oceny ryzyka z wykorzystaniem lasów losowych (M10) 6.10.Proponowany model oceny ryzyka z wykorzystaniem uczenia maszynowego w oparciu o sztuczne sieci neuronowe (Ml 1) 6.11.Uzyskane wyniki 6.11.1. Analiza korelacji 6.11.2.Analiza PCA 6.11.3.Model z wykorzystaniem regresji logistycznej (M4) 6.11.4.Model z wykorzystaniem uczenia maszynowego w oparciu o K-najbliższych sąsiadów (M5) 6.11.5.Model z wykorzystaniem uczenia maszynowego w oparciu o naiwny klasyfikator Bayesa (M6) 6.11.6.Model z wykorzystaniem uczenia maszynowego w oparciu o kwadratową analizę dyskryminacyjną (M7) 6.11.7.Model z wykorzystaniem uczenia maszynowego w oparciu o drzewa decyzyjne wzmocnione metodą AdaBoost (M8) 6.11.8.Model z wykorzystaniem uczenia maszynowego w oparciu o maszynę wektorów nośnych (M9) 6.11.9.Model z wykorzystaniem uczenia maszynowego w oparciu o lasy losowe (Ml0) 6.11.10.Model z wykorzystaniem uczenia maszynowego w oparciu o sztuczne sieci neuronowe (Ml 1)
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 152866 N (1 egz.)
Brak okładki
Książka
W koszyku
Bibliogr. s. [382]-391. Indeksy.
Dla studentów studiów matematycznych, informatycznych i technicznych, na których analiza danych jest przedmiotem obowiązkowym lub fakultatywnym.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Egzemplarz lektoryjny
Są egzemplarze dostępne do wypożyczenia: sygn. 120461 L (1 egz.)
Brak okładki
Książka
W koszyku
Bibliografie, netografie przy rozdziałach.
1. Wprowadzenie do systemów uczących się 1.1. Uczenie maszynowe 1.2. Uczenie maszynowe a sztuczna inteligencja 1.3. Problemy, które rozwiązuje uczenie maszynowe 1.4. System informacyjny w sensie Pawlaka 1.5. System decyzyjny w sensie Pawlaka 1.6. Idea uczenia maszynowego 1.6.1. Problem uczenia maszynowego 1.6.2. Uczenie klasyfikatora 1.6.3. Wymiar Vapnika-Chervonenkisa 1.6.4. Metoda PAC 1.7. Uczenie nadzorowane 1.8. Uczenie nienadzorowane 1.9. Uczenie półnadzorowane 1.10. Uczenie przez wzmacnianie 1.11. Twierdzenie Nofree lunches 2. Metody wstępnego przetwarzania danych 2.1. Popularne zbiory rzeczywistych danych 2.2. Typy wartości w atrybutach 2.2.1. Typ numeryczny 2.2.2.Typkategorialny 2.3. Oczyszczanie danych 2.3.1. Praca z nieprawidłowymi wartościami 2.3.2. Uzupełnianie brakujących wartości 2.4. Redukcja wymiarowości systemu 2.4.1. Analiza głównych składowych 2.4.2. Nadzorowana redukcja wymiarowości za pomocą liniowej analizy dyskryminacyjnej 2.4.3. Ocena istotności atrybutów za pomocą korelacji 2.4.4. Inne metody redukcji wymiarowości danych 3. Uczenie modeli i ich metryki 3.1. Parametry wydajności 3.1.1. Dokładność globalna 3.1.2. Dokładność zbalansowana 3.1.3. Stopień prawidłowej trafności w klasę decyzyjną 3.1.4. Stopień prawidłowej nietrafności w klasę decyzyjną 3.1.5. Stopień błędnej trafności w klasę decyzyjną 3.1.6. Stopień błędnej nietrafności w klasę decyzyjną 3.1.7. Precyzja 3.1.8. Pełność 3.1.9. Wskaźnik F1 3.1.10. Dobór precyzji i pełności dla modelu 3.1.11. Krzywa ROC 3.2. Funkcje kosztu 3.2.1. Pojęcie funkcji kosztu 3.2.2. Błąd średniokwadratowy 3.2.3. Funkcja Hubera 3.2.4. Binarna entropia krzyżowa 3.2.5. Kategorialna entropia krzyżowa 3.2.6. Funkcja zawiasowa 3.3. Metody oceny wydajności modeli 3.3.1. Metoda "trenuj i testuj" 3.3.2. /t-krotna walidacja krzyżowa 3.3.3. Walidacja krzyżowa Monte Carlo 3.3.4. Wewnętrzna walidacja krzyżowa 3.3.5. Leave one out 3.3.6. Bootstrap 3.3.7.Bagging 3.3.8. Losowe lasy 3.4. Zjawisko przetrenowania i niedotrenowania modelu 3.4.1. Problem przetrenowania i niedotrenowania 3.4.2. Przyczyny niedotrenowania i przetrenowania modeli 3.4.3. Wykorzystanie podzbiorów walidacyjnych 3.4.4. Ewaluacja stopnia wytrenowania modelu na podstawie metody T&T 3.4.5. Obciążenie modelu 3.4.6. Wariancja modelu 3.5. Regularyzacja 3.5.1. Regularyzacja grzbietowa 3.5.2. Regularyzacja lasso 3.5.3. Regularyzacja ElasticNet 4. Wprowadzenie do sztucznych sieci neuronowych 4.1. Perceptron - podstawowa jednostka sieci neuronowej 4.2. Sztuczna sieć neuronowa 4.3. Funkcja aktywacji 4.3.1. Idea funkcji aktywacji 4.3.2. Popularne funkcje aktywacji 4.4. Metody optymalizacyjne 4.4.1. Metoda gradientu prostego 4.4.2. Momentum 4.4.3. Przyspieszony spadek wzdłuż gradientu 4.4.4. RMSProp 4.4.5. Adaptive moment estimation (Adam) 4.5. Uczenie sztucznej sieci neuronowej 4.6. Metody projektowania sieci neuronowych do klasyfikacji i regresji 5. Problemy uczenia głębokiego 5.1. Niestabilne gradienty 5.1.1. Metody inicjalizacji wag sieci neuronowych 5.1.2. Dobór funkcji aktywacji 5.1.3. Normalizacja wsadowa 5.1.4. Obcinanie gradientu 5.2. Regularyzacja 5.2.1. Wczesne zatrzymywanie 5.2.2. Dropout 5.3. Regularyzacja metodą Monte Carlo 5.4. Regularyzacja metodą max-norm 5.5. Metody projektowania sieci neuronowych odpornych na problemy uczenia głębokiego 6. Implementacja sieci neuronowych z zastosowaniem biblioteki TensorFlow 6.1. Keras 6.1.1. Instalacja w środowisku języka Python 6.1.2. Weryfikacja poprawności instalacji oraz wersji biblioteki 6.1.3. Wbudowane warstwy modeli sieci neuronowych 6.1.4. Podstawowe metody i atrybuty warstw 6.2. Tworzenie modeli z zastosowaniem interfejsu Keras 6.2.1. Sequential API 6.2.2. Functional API 6.2.3. Subclassing API 6.3. Wizualizacja, trening, ocena wydajności i zapisywanie modelu 6.4. Studium przypadku - budowa modelu decyzyjnego diagnozującego schorzenia układu krążenia 7. Wdrażanie wytrenowanych modeli w chmurze publicznej 7.1. Chmura publiczna 7.2. Usługi bezserwerowe 7.3. Google Cloud Platform 7.4. Wdrażanie modeli za pomocą Google Cloud Platform 7.5. Wykonywanie predykcji za pomocą wdrożonego modelu
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153465 N (1 egz.)
Książka
W koszyku
Sztuczna inteligencja od podstaw / Feliks Kurp. - Gliwice : Helion, copyright 2023. - 192 strony : ilustracje, wykresy ; 21 cm.
Bibliografia, netografia na stronach [189]-192.
Dla studentów kierunków informatyka, mechatronika, automatyka i robotyka.
Silna i słaba sztuczna inteligencja Przegląd klasycznych metod sztucznej inteligencji 3.1. Metody heurystyczne i metaheurystyczne 3.2. Sztuczne sieci neuronowe 3.3. Uczenie maszynowe 3.4. Przetwarzanie języka naturalnego 3.5. Algorytmy genetyczne i ewolucyjne 3.6. Algorytmy mrówkowe i inteligencja roju 3.7. Sztuczne życie 3.8. Sztuczna inteligencja w procesach wydobywania wiedzy z danych 3.9. Metody hybrydowe 3.10. Metody na pograniczu sztucznej inteligencji 3.11. Co dalej ze sztuczną inteligencją? Algorytmy genetyczne i ewolucyjne 4.1. Idea algorytmów genetycznych i ewolucyjnych 4.2. Klasyczny algorytm genetyczny 4.3. Operatory genetyczne 4.4. Przykłady operacji krzyżowania i mutacji 4.5. Przykłady wykorzystania algorytmu genetycznego 4.5.1. Szukanie ekstremum funkcji jednej zmiennej 4.5.2. Rozwiązanie problemu plecakowego 4.6. Strategie ewolucyjne 4.7. Eksploracja i eksploatacja 4.8. Porównanie metod selekcji 4.9. Metody skalowania funkcji dostosowania 4.10. Specjalne procedury reprodukcji 4.11. Programowanie genetyczne 4.12. Poszukiwanie ekstremum funkcji wielu zmiennych z dużą dokładnością . Algorytm mrówkowy 5.1. Główne różnice w zachowaniu „sztucznych mrówek” w porównaniu z rzeczywistymi 5.2. Podstawowe parametry wejściowe algorytmu mrówkowego 5.3. Wpływ ilości pozostawionego feromonu w punktach grafu 5.4. Wpływ liczby mrówek biorących udział w eksperymencie 5.5. Wpływ liczby punktów do wyboru przez mrówki 5.6. Wpływ metody wyboru kolejnego punktu grafu przez mrówkę 5.7. Stopień nasycenia feromonem poszczególnych punktów grafu po zakończeniu symulacji Sztuczne sieci neuronowe 6.1. Sieci neuronowe biologiczne 6.2. Budowa i działanie sztucznego neuronu 6.3. Funkcje aktywacji 6.4. Perceptron 6.5. Model neuronu sigmoidalnego 6.6. Dlaczego sieci neuronowe? 6.7. Topologie sieci neuronowych 6.7.1. Sieci jednokierunkowe 6.7.2. Algorytm wstecznej propagacji błędów 6.7.3. Sieci rekurencyjne 6.7.4. Sieci komórkowe samoorganizujące się 6.7.5. Sieci samoorganizujące z konkurencją 6.7.6. Wykorzystanie sieci samoorganizujących Uczenie maszynowe 7.1. Modele uczenia maszynowego 7.1.1. Uczenie nadzorowane (z nauczycielem) 7.1.2. Uczenie nienadzorowane (bez nauczyciela) 7.1.3. Uczenie ze wzmocnieniem 7.2. Głębokie uczenie się 7.3. Zautomatyzowane uczenie maszynowe (AutoML). Sztuczne życie 8.1. Definicja sztucznego życia 8.2. Model Lotki-Volterry 8.3. Autorski model pełzacze i bakterie 8.4. Symulacja choroby i leczenia organizmu Metody wykorzystujące zbiory rozmyte typu 1. 9.1. Podstawowe pojęcia teorii zbiorów rozmytych typu 1. 9.2. Operacje na zbiorach rozmytych 9.3. Relacje rozmyte 9.4. Przykłady zastosowań teorii zbiorów rozmytych 9.4.1. Rozmyta metoda Delphi 9.4.2. Rozmyta metoda PERT 9.5. Podejmowanie decyzji w otoczeniu rozmytym 9.5.1. Przydział dywidendy 9.5.2. Polityka zatrudnienia 9.6. Przybliżone wnioskowanie 9.6.1. Wnioskowanie w logice dwuwartościowej 9.6.2. Wnioskowanie w logice rozmytej 9.7. Sterowanie rozmyte Systemy ekspertowe. Metody wnioskowania 10.1. Definicja systemu ekspertowego 10.2. Ogólna budowa systemu ekspertowego 10.3. Drzewa decyzyjne 10.4. Metodologia wnioskowania 10.4.1. Wnioskowanie dedukcyjne a indukcyjne 10.4.2. Wnioskowanie dedukcyjne (udowodnienie celu) . 10.4.3. Wnioskowanie indukcyjne (od danych do celu) 10.4.4. Wnioskowanie mieszane Inteligentna analiza danych 11.1. Eksploracja danych 11.2. Analityczne przetwarzanie danych 11.3. Klasyczne metody eksploracji danych 11.4. Inteligentne metody eksploracji danych 11.5. Podstawowe własności analizy skupień 11.6. Metoda k-średnich (k-means) 11.7. Przykładowa aplikacja analizy danych metodą k-means Metody hybrydowe i koewolucyjne 12.1. Metody hybrydowe 12.1.1. Algorytmy ewolucyjne w projektowaniu sieci neuronowych 12.1.2. Algorytmy ewolucyjne w uczeniu wag sieci neuronowych 12.1.3. Algorytmy ewolucyjne do uczenia wag i określania architektury sieci neuronowych jednocześnie 12.1.4. Adaptacyjne rozmyte algorytmy ewolucyjne 12.1.5. Algorytmy ewolucyjne w projektowaniu systemów rozmytych 12.1.6. Dopasowanie funkcji przynależności za pomocą algorytmu genetycznego 12.2. Algorytmy koewolucyjne Przetwarzanie języka naturalnego 13.1. Języki naturalne i formalne 13.2. Historia rozwoju NLP 13.3. Poziomy analizy języka naturalnego 13.4. Analiza składniowa (syntaktyczna) 13.4.1. Gramatyki generatywne Chomsky’ego 13.5. Analiza semantyczna (znaczeniowa) 13.5.1. Podejście strukturalne do opisu semantyki 13.5.2. Symetryczna macierz współwystępowania słów 13.5.3. Reprezentacja wektorowa słowa (metody Word2vec i Doc2vec) 13.5.4. Podobieństwo cosinusowe wektorów słów 13.5.5. Modelowanie językowe BERT 13.6. Model GPT-3 13.7. Analiza sentymentu
Sygnatura czytelni BWEAiI: XII Ą 153
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153774 N (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153775 N (1 egz.)
Brak okładki
Książka
W koszyku
(Prace Naukowe Wydziału Inżynierii Środowiska Politechniki Wrocławskiej. Monografie, ISSN 2657-5035 ; 3)
Bibliografia, netografia na stronach 177-187.
Stan techniczny a awaryjność systemów wodociągowych Liczba i rodzaj awarii a wskaźnik intensywności u szkodzeń Niezawodność działania Ryzyko działania Renowacje przewodów Straty wody Modelowanie matematyczne w zastosowaniu do analizy awaryjności systemów wodociągowych Modele do opisu ilościowego awarii Modele do opisu ryzyka i niezawodności Modele do opisu strategii renowacji Charakterystyka wybranych metod regresyjnych i klasyfikacyjnych . Metoda wektorów nośnych Metoda K-najbliższych s ą s ia d ów Drzewa regresyjne, klasyfikacyjne i losowy las Charakterystyka wybranych do badań systemów wodociągowych Opis systemu wodociągowego w mieście X Opis systemu wodociągowego w mieście Y Ilościowe i jakościowe modelowanie awaryjności badanych sieci wodociągowych Metodyka modelowania - miasto X Metodyka modelowania - miasto Y Przewidywanie wskaźnika intensywności i klasyfikacja rodzajów uszkodzeń przewodów wodociągowych Zastosowanie metody wektorów nośnych Zastosowanie metody K-najbliższych sąsiadów Zastosowanie drzew regresyjnych i klasyfikacyjnych
Sygnatura czytelni BMW: II M 462(3) (nowy)
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. M 14804, M 14740 (2 egz.)
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 147906 N (1 egz.)
Książka
W koszyku
Na stronie tytułowej: Wydanie II, zawiera analizę metod wieloagentowych i zaawansowanych technik eksploracyjnych. Informacja o wydaniu dotyczy oryginału.
Czym jest uczenie przez wzmacnianie Zestaw narzedzi OpenAl Gym Uczenie głębokie przy użyciu biblioteki PyTorch Metoda entropii krzyżowej Uczenie tabelaryczne i równanie Bellmana Głębokie sieci Biblioteki wy zszego poziomu uczenia przez wzmacnianie Rozszerzenia sieci DQN Sposoby przyspieszenia metod uczenia przez wzmacnianie Inwestowanie na giełdzie za pomocą metod uczenia przez wzmacnianie Alternatywa - gradienty polityki Metoda aktor-krytyk Asynchroniczna wersja metody aktor-krytyk Trenowanie chatbotów z wykorzystaniem uczenia przez wzmacnianie Środowisko TextWorld Nawigacja w sieci Ciągła przestrzeń akcji Metody uczenia przez wzmacnianie w robotyce Regiony zaufania - PPO, TRPO, ACKTR i SAC Optymalizacja typu "czarna skrzynka" w przypadku uczenia przez wzmacnianie Zaawansowana eksploracja Alternatywa dla metody bezmodelowej - agent wspomagany wyobraźnią alphaGo Zero Użycie metod uczenia przez wzmacnianie w optymalizacji dyskretnej Metoda wieloagentowa
Sygnatura czytelni BWEAiI: XII Ą 150
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 152597 (1 egz.)
Książka
W koszyku
Wydanie 3. odnosi się do oryginału.
Indeks.
Pierwsze kroki z uczeniem maszynowym w Pythonie Różnice między uczeniem maszynowym a automatyką Nadmierne i niedostateczne dopasowanie modelu oraz kompromis między obciążeniem a wariancją Zapobieganie nadmiernemu dopasowaniu poprzez weryfikację krzyżową Zapobieganie nadmiernemu dopasowaniu za pomocą regularyzacji Zapobieganie nadmiernemu dopasowaniu poprzez selekcję cech i redukcję wymiarowości Wstępne przetwarzanie danych i inżynieria cech Wstępne przetwarzanie i eksploracja danych Inżynieria cech Łączenie modeli Głosowanie i uśrednianie Agregacja bootstrap Wzmacnianie Składowanie Instalacja i konfiguracja oprogramowania Przygotowanie Pythona i środowiska pracy Instalacja najważniejszych pakietów Pythona Wprowadzenie do pakietu TensorFlow 2 Tworzenie systemu rekomendacji filmów na bazie naiwnego klasyfikatora Bayesa Pierwsze kroki z klasyfikacją Klasyfikacja binarna Klasyfikacja wieloklasowa Klasyfikacja wieloetykietowa Naiwny klasyfikator Bayesa Twierdzenie Bayesa w przykładach Mechanizm naiwnego klasyfikatora Bayesa Implementacja naiwnego klasyfikatora Bayesa Implementacja od podstaw Implementacja z wykorzystaniem pakietu scikit-learn Budowanie systemu rekomendacyjnego na bazie klasyfikatora Bayesa Ocena jakości klasyfikacji Strojenie modeli poprzez weryfikację krzyżową Rozpoznawanie twarzy przy użyciu maszyny wektorów nośnych Określanie granic klas za pomocą maszyny wektorów nośnych Scenariusz 1. Określenie hiperpłaszczyzny rozdzielającej Scenariusz 2. Określenie optymalnej hiperpłaszczyzny rozdzielającej Scenariusz 3. Przetwarzanie punktów odstających Implementacja maszyny wektorów nośnych Scenariusz 4. Więcej niż dwie klasy Scenariusz 5. Rozwiązywanie nierozdzielnego liniowo problemu za pomocą jądra Wybór między jądrem liniowym a radialną funkcją bazową Klasyfikowanie zdjęć twarzy za pomocą maszyny wektorów nośnych Badanie zbioru zdjęć twarzy Tworzenie klasyfikatora obrazów opartego na maszynie wektorów nośnych Zwiększanie skuteczności klasyfikatora obrazów za pomocą analizy głównych składowych Klasyfikacja stanu płodu w kardiotokografii Prognozowanie kliknięć reklam internetowych przy użyciu algorytmów drzewiastych Wprowadzenie do prognozowania kliknięć reklam Wprowadzenie do dwóch typów danych: liczbowych i kategorialnych Badanie drzewa decyzyjnego od korzeni do liści Budowanie drzewa decyzyjnego Wskaźniki jakości podziału zbioru Implementacja drzewa decyzyjnego od podstaw Implementacja drzewa decyzyjnego za pomocą biblioteki scikit-learn Prognozowanie kliknięć reklam za pomocą drzewa decyzyjnego Gromadzenie drzew decyzyjnych: las losowy Gromadzenie drzew decyzyjnych: drzewa ze wzmocnieniem gradientowym Prognozowanie kliknięć reklam internetowych przy użyciu regresji logistycznej Klasyfikowanie danych z wykorzystaniem regresji logistycznej Wprowadzenie do funkcji logistycznej Przejście od funkcji logistycznej do regresji logistycznej Trening modelu opartego na regresji logistycznej Trening modelu opartego na regresji logistycznej z gradientem prostym Prognozowanie kliknięć reklam z wykorzystaniem regresji logistycznej z gradientem prostym Trening modelu opartego na regresji logistycznej ze stochastycznym gradientem prostym Trening modelu opartego na regresji logistycznej z regularyzacją Selekcja cech w regularyzacji L1 Trening modelu na dużym zbiorze danych z uczeniem online Klasyfikacja wieloklasowa Implementacja regresji logistycznej za pomocą pakietu TensorFlow Selekcja cech z wykorzystaniem lasu losowego Skalowanie modelu prognozującego do terabajtowych dzienników kliknięć Podstawy Apache Spark Komponenty Instalacja Uruchamianie i wdrażanie programów Programowanie z wykorzystywaniem modułu PySpark Trenowanie modelu na bardzo dużych zbiorach danych za pomocą narzędzia Apache Spark Załadowanie danych o kliknięciach reklam Podzielenie danych i umieszczenie ich w pamięci Zakodowanie "1 z n" cech kategorialnych Trening i testy modelu regresji logistycznej Inżynieria cech i wartości kategorialnych przy użyciu narzędzia Apache Spark Mieszanie cech kategorialnych Interakcja cech, czyli łączenie zmiennych Prognozowanie cen akcji za pomocą algorytmów regresji Krótkie wprowadzenie do giełdy i cen akcji Co to jest regresja? Pozyskiwanie cen akcji Pierwsze kroki z inżynierią cech Pozyskiwanie danych i generowanie cech Szacowanie za pomocą regresji liniowej Jak działa regresja liniowa? Implementacja regresji liniowej od podstaw Implementacja regresji liniowej z wykorzystaniem pakietu scikit-learn Implementacja regresji liniowej z wykorzystaniem pakietu TensorFlow Prognozowanie za pomocą regresyjnego drzewa decyzyjnego Przejście od drzewa klasyfikacyjnego do regresyjnego Implementacja regresyjnego drzewa decyzyjnego Implementacja lasu regresyjnego Prognozowanie za pomocą regresji wektorów nośnych Implementacja regresji wektorów nośnych Ocena jakości regresji Prognozowanie cen akcji za pomocą trzech algorytmów regresji Prognozowanie cen akcji za pomocą sieci neuronowych Demistyfikacja sieci neuronowych Pierwsze kroki z jednowarstwową siecią neuronową Funkcje aktywacji Propagacja wstecz Wprowadzanie kolejnych warstw do sieci neuronowej i uczenie głębokie Tworzenie sieci neuronowej Implementacja sieci neuronowej od podstaw Implementacja sieci neuronowej przy użyciu pakietu scikit-learn Implementacja sieci neuronowej przy użyciu pakietu TensorFlow Dobór właściwej funkcji aktywacji Zapobieganie nadmiernemu dopasowaniu sieci Dropout Wczesne zakończenie treningu Prognozowanie cen akcji za pomocą sieci neuronowej Trening prostej sieci neuronowej Dostrojenie parametrów sieci neuronowej. Badanie 20 grup dyskusyjnych przy użyciu technik analizy tekstu
Jak komputery rozumieją ludzi, czyli przetwarzanie języka naturalnego Czym jest przetwarzanie języka naturalnego? Historia przetwarzania języka naturalnego Zastosowania przetwarzania języka naturalnego Przegląd bibliotek Pythona i podstawy przetwarzania języka naturalnego Instalacja najważniejszych bibliotek Korpusy Tokenizacja Oznaczanie części mowy Rozpoznawanie jednostek nazwanych Stemming i lematyzacja Modelowanie semantyczne i tematyczne Pozyskiwanie danych z grup dyskusyjnych Badanie danych z grup dyskusyjnych Przetwarzanie cech danych tekstowych Zliczanie wystąpień wszystkich tokenów Wstępne przetwarzanie tekstu Usuwanie stop-słów Upraszczanie odmian Wizualizacja danych tekstowych z wykorzystaniem techniki t-SNE Co to jest redukcja wymiarowości? Redukcja wymiarowości przy użyciu techniki t-SNE Rozdział 10. Wyszukiwanie ukrytych tematów w grupach dyskusyjnych poprzez ich klastrowanie i modelowanie tematyczne Nauka bez wskazówek, czyli uczenie nienadzorowane Klastrowanie grup dyskusyjnych metodą k-średnich Jak działa klastrowanie metodą k-średnich? Implementacja klastrowania metodą k-średnich od podstaw Implementacja klastrowania metodą k-średnich z wykorzystaniem pakietu scikit-learn Dobór wartości k Klastrowanie danych z grup dyskusyjnych metodą k-średnich Odkrywanie ukrytych tematów grup dyskusyjnych Modelowanie tematyczne z wykorzystaniem nieujemnej faktoryzacji macierzy Modelowanie tematyczne z wykorzystaniem ukrytej alokacji Dirichleta Proces rozwiązywania problemów uczenia maszynowego Dobre praktyki przygotowywania danych Dobra praktyka nr 1. Dokładne poznanie celu projektu Dobra praktyka nr 2. Zbieranie wszystkich istotnych pól Dobra praktyka nr 3. Ujednolicenie danych Dobra praktyka nr 4. Opracowanie niekompletnych danych Dobra praktyka nr 5. Przechowywanie dużych ilości danych Dobre praktyki tworzenia zbioru treningowego Dobra praktyka nr 6. Oznaczanie cech kategorialnych liczbami Dobra praktyka nr 7. Rozważenie kodowania cech kategorialnych Dobra praktyka nr 8. Rozważenie selekcji cech i wybór odpowiedniej metody Dobra praktyka nr 9. Rozważenie redukcji wymiarowości i wybór odpowiedniej metody Dobra praktyka nr 10. Rozważenie normalizacji cech Dobra praktyka nr 11. Inżynieria cech na bazie wiedzy eksperckiej Dobra praktyka nr 12. Inżynieria cech bez wiedzy eksperckiej Dobra praktyka nr 13. Dokumentowanie procesu tworzenia cech Dobra praktyka nr 14. Wyodrębnianie cech z danych tekstowych Dobre praktyki trenowania, oceniania i wybierania modelu Dobra praktyka nr 15. Wybór odpowiedniego algorytmu początkowego Dobra praktyka nr 16. Zapobieganie nadmiernemu dopasowaniu Dobra praktyka nr 17. Diagnozowanie nadmiernego i niedostatecznego dopasowania Dobra praktyka nr 18. Modelowanie dużych zbiorów danych Dobre praktyki wdrażania i monitorowania modelu Dobra praktyka nr 19. Zapisywanie, ładowanie i wielokrotne stosowanie modelu Dobra praktyka nr 20. Monitorowanie skuteczności modelu Dobra praktyka nr 21. Regularne aktualizowanie modelu Kategoryzacja zdjęć odzieży przy użyciu konwolucyjnej sieci neuronowej Bloki konstrukcyjne konwolucyjnej sieci neuronowej Warstwa konwolucyjna Warstwa nieliniowa Warstwa redukująca Budowanie konwolucyjnej sieci neuronowej na potrzeby klasyfikacji Badanie zbioru zdjęć odzieży Klasyfikowanie zdjęć odzieży za pomocą konwolucyjnej sieci neuronowej Tworzenie sieci Trening sieci Wizualizacja filtrów konwolucyjnych Wzmacnianie konwolucyjnej sieci neuronowej poprzez uzupełnianie danych Odwracanie obrazów w poziomie i pionie Obracanie obrazów Przesuwanie obrazów Usprawnianie klasyfikatora obrazów poprzez uzupełnianie danych Prognozowanie sekwencji danych przy użyciu rekurencyjnej sieci neuronowej Wprowadzenie do uczenia sekwencyjnego Architektura rekurencyjnej sieci neuronowej na przykładzie Mechanizm rekurencyjny Sieć typu "wiele do jednego" Sieć typu "jedno do wielu" Sieć synchroniczna typu "wiele do wielu" Sieć niesynchroniczna typu "wiele do wielu" Trening rekurencyjnej sieci neuronowej Długoterminowe zależności i sieć LSTM Analiza recenzji filmowych za pomocą sieci neuronowej Analiza i wstępne przetworzenie recenzji Zbudowanie prostej sieci LSTM Poprawa skuteczności poprzez wprowadzenie dodatkowych warstw Pisanie nowej powieści "Wojna i pokój" za pomocą rekurencyjnej sieci neuronowej Pozyskanie i analiza danych treningowych Utworzenie zbioru treningowego dla generatora tekstu Utworzenie generatora tekstu Trening generatora tekstu Zaawansowana analiza języka przy użyciu modelu Transformer Architektura modelu Samouwaga . Podejmowanie decyzji w skomplikowanych warunkach z wykorzystaniem uczenia przez wzmacnianie Przygotowanie środowiska do uczenia przez wzmacnianie Instalacja biblioteki PyTorch Instalacja narzędzi OpenAI Gym Wprowadzenie do uczenia przez wzmacnianie z przykładami Komponenty uczenia przez wzmacnianie Sumaryczna nagroda Algorytmy uczenia przez wzmacnianie Problem FrozenLake i programowanie dynamiczne Utworzenie środowiska FrozenLake Rozwiązanie problemu przy użyciu algorytmu iteracji wartości Rozwiązanie problemu przy użyciu algorytmu iteracji polityki Metoda Monte Carlo uczenia przez wzmacnianie Utworzenie środowiska Blackjack Ocenianie polityki w metodzie Monte Carlo Sterowanie Monte Carlo z polityką Problem taksówkarza i algorytm Q-uczenia Utworzenie środowiska Taxi Implementacja algorytmu Q-uczenia
Sygnatura czytelni BWEAiI: XII Ł 214
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153052 (1 egz.)
Książka
W koszyku
W książce także ISBN oryginału.
Na stronie tytułowej również informacje o wydawcy oryginału - O'Reilly.
Część I. Tworzenie modeli 1. Wprowadzenie do biblioteki TensorFlow 2. Wprowadzenie do widzenia komputerowego 3. Bardziej zaawansowane zagadnienie: wykrywanie cech w obrazach 4. Korzystanie za pomocą biblioteki TensorFlow Datasets z publicznie dostępnych zbiorów danych 5. Wprowadzenie do przetwarzania języka naturalnego 6. Programowa analiza emocji za pomocą osadzeń 7. Użycie rekurencyjnych sieci neuronowych do przetwarzania języka naturalnego 8. Użycie biblioteki TensorFlow do generowania tekstu 9. Sekwencje i dane szeregów czasowych 10. Tworzenie modeli uczenia maszynowego do prognozowania sekwencji 11. Użycie metod konwolucyjnych i rekurencyjnych w modelowaniu sekwencji Część II. Używanie modeli 12. Wprowadzenie do TensorFlow Lite 13. Użycie TensorFlow Lite w systemie Android 14. Użycie TensorFlow Lite w systemie iOS 15. Wprowadzenie do TensorFlow.js 16. Rozwiązywanie problemów z zakresu widzenia komputerowego za pomocą biblioteki TensorFlow.js 17. Konwersja modeli z Pythona do JavaScriptu i ponowne ich użycie 18. Wykorzystanie uczenia transferowego w języku JavaScript 19. Wdrażanie modeli za pomocą usługi TensorFlow Serving 20. Sztuczna inteligencja a etyka, uczciwość i prywatność
Sygnatura czytelni BWEAiI: XII Ą 21
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 150989 N (1 egz.)
Książka
W koszyku
Bibliografia, netografia na stronach 211-217. Indeks.
0O sztucznej inteligencji JAROSŁAW CHUDZ1AK, TOMASZ ClAMBIN, PlOTB GAWRYSIAK, MIECZYSŁAW MuRASZKIEWICZ 2Przeszukiwanie i optymalizacja RAFAŁ BIEDRZYCKI, WIKTOR DASZCZUK, ROUERT NOWAK, PAWEŁ WAWRZYŃSKI 2.1Metody klasyczne w SI 2.2.1Metoda Newtona 2.2.2Metoda Levenberga 2.2.3Metoda gradientu prostego 2.2.4Metoda stochastycznego najszybszego spadku 2.3Przeszukiwanie przestrzeni stanów 2.3.1Strategie ślepe 2.3.2Strategie heurystyczne 2.3.3Gry dwuosobowe, algorytm MiniMax 2.4Algorytmy ewolucyjne i inne metaheurystyki 2.4.1Algorytm genetyczny 2.4.2Algorytm ewolucyjny 2.4.3Strategia ewolucyjna ES(1 + 1) 2.4.4Strategie ewolucyjne ES(/J + A), ES(/x, A) 2.4.5Inne metaheurystyki 3Uczenie maszynowe PAWEŁ CICHOSZ 3.1Systemy uczące się 3.1.1W stronę definicji uczenia się 3.1.2Rodzaje informacji trenującej 3.1.3Wprowadzenie do uczenia indukcyjnego 3.2Drzewa decyzyjne 3.2.1Drzewa decyzyjne jako reprezentacja modelu 3.2.2Zstępująca budowa drzewa 3.2.3Kryterium stopu 3.2.4Kryterium wyboru podziału 3.2.5Przycinanie drzewa 3.2.G Predykcja probabilistyczna 3.2.7Drzewa regresji 3.2.8Właściwości drzew decyzyjnych 3.3Modele liniowe 3.3.1Regresja liniowa 3.3.2Klasyfikacja liniowo-progowa 3.3.3Regresja logistyczna 3.3.4Obsługa atrybutów dyskretnych 3.3.5Klasyfikacja wieloklasowa 3.3.C Właściwości modeli liniowych 3.4Naiwny klasyfikator bayesowski 3.4.1Wnioskowanie bayesowskie 3.4.2Estymacja prawdopodobieństw 3.4.3Prawdopodobieństwa zerowe i prawie zerowe101 3.4.4Atrybuty ciągłe 3.4.5Predykcja 3.4.G Właściwości naiwnego klasyfikatora bayesowskiego 3.5Las losowy 3.5.1Modele zespołowe 3.5.2Tworzenie modeli bazowych 3.5.3Łączenie predykcji 3.5.4Budowa lasu losowego 3.5.5Predykcja lasu losowego 3.5.6Ocena predykcyjnej użyteczności atrybutów 3.5.7Właściwości lasów losowych 3.6Algorytm SVM 3.6.1Udoskonalenie klasyfikacji liniowo-progowej 3.6.2Maksymalizacja marginesu klasyfikacji 3.6.3Twardy margines 3.6.4Miękki margines 3.6.5Postać dualna 3.6.6Funkcje jądrowe 3.6.7Właściwości algorytmu SVM 3.7Ocena jakości modeli 3.7.1Miary jakości klasyfikacji 3.7.2Miary jakości regresji 3.7.3Procedury oceny 3.8Elementy teorii uczenia się 3.8.1Klasy pojęć i przestrzenie modeli 3.8.2PAC-nauczalność 3.8.3PAC-uczenie się dla algorytmów spójnych 3.8.4Uczenie agnostyczne 3.8.5 Wymiar Vapnika-Chervonenkisa 3.8.G Podsumowanie wniosków z teorii 4Sieci neuronowe KAROL PICZAK, PAWEŁ WAWRZYŃSKI 4.1Perceptron wielowarstwowy 4.1.1Model neuronu 4.1.2Perceptron dwuwarstwowy 4.1.3Własność uniwersalnej aproksymacji 4.1.4Perceptron wielowarstwowy 4.2Uczenie sieci neuronowej 4.2.1Uczenie jako rozwiązanie problemu optymalizacji 4.2.2Skalowanie wejść i wyjść, inicjacja wag 4.2.3Wsteczna propagacja gradientu 4.2.4Algorytmy optymalizacji 4.3Rekurencyjne sieci neuronowe 4.3.1Uczenie rekurencyjnej sieci neuronowej 4.3.2Sieci LSTM 4.3.3Sieci GRU 4.4Hiperparametry struktury i procesu uczenia sieci 4.4.1Funkcje aktywacji neuronów 4.4.2Inicjacja wag 4.4.3Normalizacja 4.4.4Dobór wielkości sieci 4.4.5Wczesne zatrzymanie uczenia 4.4.6Regularyzacja 4.4.7Inne techniki poprawy generalizacji 4.5Modele splotowe 4.5.1Operacja splotu 4.5.2Warstwy splotowe 4.5.3Złożone architektury splotowe 5O związkach etyki i sztucznej inteligencji KATARZYNA BUDZYŃSKA, MIECZYSŁAW MURASZKIEWICZ 5.1Wybrane dylematy i problemy 5.2Sztuczna inteligencja godna zaufania
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 152435 N (1 egz.)
Brak okładki
Książka
W koszyku
Machine learning : a probabilistic perspective / Kevin P. Murphy. - Cambridge, Massachusetts ; London : The MIT Press, copyright 2012. - XXIX, 1071 : ilustracje ; 24 cm.
(Adaptive Computation and Machine Learning Series)
Bibliografia strony 1019-1050. Indeks.
Machinę learning Supervised learning Unsupervised learning Discovering clusters Discovering latent factors Discovering graph structure Matrix completion Some basie concepts in machinę learning Parametric vs non-parametric models A simple non-parametric classifier: JsT-nearest neighbors The curse of dimensionality Parametric models for classification and regression Linear regression Logistic regression Oerfitting Model selection No free lunch theorem Probability Discrete random variables Fundamental rules Bayes' rule Independence and conditional independence Continuous random variables Quantiles Mean and variance Some common discrete distributions The binomial and Bernoulli distributions The multinomial and multinoulli distributions The Poisson distribution The empirical distribution Some common continuous distributions Gaussian (normal) distribution Degenerate pdf The Student's t distribution The Laplace distribution The gamma distribution The beta distribution Pareto distribution Joint probability distributions Covariance and correlation The multivariate Gaussian Multivariate Student t distribution Dirichlet distribution Transformations of random variables Linear transformations General transformations Central limit theorem Monte Carlo approximation Example: change of variables, the MC way Example: estimating n by Monte Carlo integration Accuracy of Monte Carlo approximation Information theory Entropy KL divergence Mutual information Generative models for discrete data Bayesian concept learning Likelihood Prior Posterior Posterior predictive distribution A more complex prior The beta-binomial model Posterior predictive distribution The Dirichlet-multinomial model Naive Bayes classifiers Model fitting Using the model for prediction The log-sum-exp trick Feature selection using mutual information Classifying documents using bag of words Gaussian models MLE for an MVN Maximum entropy derivation of the Gaussian Gaussian discriminant analysis Quadratic discriminant analysis (QDA) Linear discriminant analysis (LDA) Two-class LDA MLE for discriminant analysis Strategies for preventing overfitting Regularized LDA Diagonal LDA Nearest shrunken centroids classifier Inference in jointly Gaussian distributions Statement of the result Information form Linear Gaussian systems Statement of the result Digression: The Wishart distribution Inverse Wishart distribution Visualizing the Wishart distribution Inferring the parameters of an MVN Sensor fusion with unknown precisions Bayesian statistics Summarizing posterior distributions MAP estimation Credible intervals Inference for a difference in proportions Bayesian model selection Bayesian Occam's razor Computing the marginal likelihood (evidence) Bayes factors Jeffreys-Lindley paradox Priors Uninformative priors Jeffreys priors Robust priors Mixtures of conjugate priors Hierarchical Bayes modeling related cancer rates Empirical Bayes Example: beta-binomial model Example: Gaussian-Gaussian model Bayesian decision theory Bayes estimators for common loss functions The false positive vs false negative tradeoff Frequentist statistics Sampling distribution of an estimator Bootstrap Large sample theory for the MLE Freąuentist decision theory Bayes risk Minimax risk Admissible estimators Desirable properties of estimators Consistent estimators Unbiased estimators Minimum variance estimators The bias-variance tradeoff Empirical risk minimization Regularized risk minimization Structural risk minimization Estimating the risk using cross validation Upper bounding the risk using statistical learning theory Surrogate loss functions Pathologies of freąuentist statistics Counter-intuitive behavior of confidence intervals p-values considered harmful The likelihood principle Why isn't everyone a Bayesian? Linear regression Model specification Maximum likelihood estimation (least sąuares) Derivation of the MLE Geometrie interpretation Robust linear regression Ridge regression Basic idea Numerically stable computation Connection with PCA Regularization effects of big data Bayesian linear regression Computing the posterior Computing the posterior predictive Bayesian inference when
Logistic regression Model specification Model fitting Steepest descent Newtohs method Iteratively reweighted least sąuares (IRLS) Quasi-Newton (variable metric) methods Multi-class logistic regression Bayesian logistic regression Laplace approximation Derivation of the Bayesian information criterion (BIC) Gaussian approximation for logistic regression Approximating the posterior predictive Residual analysis (outlier detection) Online learning and stochastic optimization Online learning and regret minimization Stochastic optimization and risk minimization The LMS algorithm The perceptron algorithm A Bayesian view Generative vs discriminative classihers Pros and cons of each approach Dealing with missing data Fisher's linear discriminant analysis (FLDA) Generalized linear models and the exponential family The exponential family Log partition function MLE for the exponential family Bayes for the exponential family Maximum entropy derivation of the exponential family Generalized linear models (GLMs) ML and MAP estimation Bayesian inference Probit regression ML/MAP estimation using gradient-based optimization Latent variable interpretation Ordinal probit regression Multinomial probit models Multi-task learning Hierarchical Bayes for multi-task learning Application to personalized email spam filtering Application to domain adaptation Other kinds of prior Generalized linear mixed models Example: semi-parametric GLMMs for medical data Computational issues Learning to rank The pointwise approach The pairwise approach The listwise approach Loss functions for ranking Directed graphical models (Bayes nets) Chain rule Conditional independence Graphical models Graph terminology Directed graphical models Naive Bayes classihers Markov and hidden Markov models Medical diagnosis Genetic linkage analysis Directed Gaussian graphical models Inference Learning Platę notation Learning from complete data Learning with missing and/or latent variables Conditional independence properties of DGMs d-separation and the Bayes Bali algorithm (global Markov properties) Other Markov properties of DGMs Markov blanket and fuli conditionals Influence (decision) diagrams U Mixture models and the EM algorithm Latent variable models Mixture models Mixtures of Gaussians Mixture of multinoullis Using mixture models for clustering Mixtures of experts Parameter estimation for mbrture models Unidentifiability Computing a MAP estimate is non-convex The EM algorithm Basic idea EM for GMMs EM for mixture of experts EM for DGMs with hidden variables EM for the Student distribution EM for probit regression Theoretical basis for EM Online EM Other EM variants Model selection for latent variable models Model selection for probabilistic models Model selection for non-probabilistic methods Fitting models with missing data EM for the MLE of an MVN with missing data 1Latent linear models Factor analysis FA is a Iow rank parameterization of an MVN Inference of the latent factors Unidentifiability Mixtures of factor analysers EM for factor analysis models Fitting FA models with missing data Principal components analysis (PCA) Classical PCA: statement of the theorem Proof Singular value decomposition (SVD) Probabilistic PCA EM algorithm for PCA Choosing the number of latent dimensions Model selection for FA/PPCA Model selection for PCA PCA for categorical data PCA for paired and multi-view data Supervised PCA (latent factor regression) Partial least sąuares Canonical correlation analysis Independent Component Analysis (ICA) Maximum likelihood estimation The FastlCA algorithm Using EM 416 Other estimation principles Sparse linear models Bayesian variable selection The spike and slab model From the Bernoulli-Gaussian model to £q regularization Algorithms regularization: basics Why does i\ regularization yield sparse solutions? Optimality conditions for lasso Comparison of least sąuares, lasso, ridge and subset selection Regularization path Model selection Bayesian inference for linear models with Laplace priors regularization: algorithms Coordinate descent LARS and other homotopy methods Prcorimal and gradient projection methods EM for lasso regularization: extensions Group lasso Fused lasso Elastic net (ridge and lasso combined) Non-convex regularizers Bridge regression Hierarchical adaptive lasso Other hierarchical priors Automatic relevance determination (ARD)/sparse Bayesian learning (SBL) ARD for linear regression Whence sparsity? Connection to MAP estimation Algorithms for ARD ARD for logistic regression Sparse coding Learning a sparse coding dictionary Results of dictionary learning from image patches Compressed sensing Image inpainting and denoising Kernel functions RBF kernels Kernels for comparing documents Mercer (positive definite) kernels Linear kernels Matern kernels String kernels Pyramid match kernels Kernels derived from probabilistic generative models Using kernels inside GLMs Kernel machines LlVMs, RVMs, and other sparse vector machines The kernel trick Kernelized nearest neighbor classification Kernelized K-medoids clustering Kernelized ridge regression Kernel PCA Support vector machines (SVMs) SVMs for regression SVMs for classification Choosing C A probabilistic interpretation of SVMs Comparison of discriminative kernel methods Kernels for building generative models Smoothing kernels Kernel density estimation (KDE) From KDE to KNN Kernel regression Locally weighted regression
Gaussian processes GPs for regression Predictions using noise-free observations Predictions using noisy observations Effect of the kernel parameters Estimating the kernel parameters Computational and numerical issues Semi-parametric GPs GPs meet GLMs Binary classification Multi-class classification GPs for Poisson regression Connection with other methods Linear models compared to GPs Linear smoothers compared to GPs SVMs compared to GPs L1VM and RVMs compared to GPs Neural networks compared to GPs Smoothing splines compared to GPs RKHS methods compared to GPs GP latent variable model Approximation methods for large datasets 544 Adaptive basis function models Classification and regression trees (CART) Growing a tree 547Pruning a tree Pros and cons of trees Random forests CART compared to hierarchical mhtture of experts Generalized additive models Backntting Computational efficiency Multivariate adaptive regression splines (MARS) Boosting Forward stagewise additive modeling L2boosting AdaBoost LogitBoost Boosting as functional gradient descent Sparse boosting Multivariate adaptive regression trees (MART) Why does boosting work so well? A Bayesian view Feedforward neural networks (multilayer perceptrons) 565Convolutional neural networks Other kinds of neural networks A brief history of the field The backpropagation algorithm Identifiability Regularization Bayesian inference Ensemble learning Stacking Error-correcting output codes Ensemble learning is not equivalent to Bayes model averaging Experimental comparison Low-dimensional features High-dimensional features Interpreting black-box models Markov and hidden Markou models Markov models Transition matrix Application: Language modeling Stationary distribution of a Markov chain Application: Google's PageRank algorithm for web page ranking Hidden Markov models Applications of HMMs Inference in HMMs Types of inference problems for temporal models The forwards algorithm The forwards-backwards algorithm The Viterbi algorithm Forwards filtering, backwards sampling Learning for HMMs Training with fully observed data EM for HMMs (the Baum-Welch algorithm) Bayesian methods for "fitting" HMMs * Discriminative training Model selection Generalizations of HMMs Variable duration (semi-Markov) HMMs Hierarchical HMMs Input-output HMMs Auto-regressive and buried HMMs Factorial HMM Coupled HMM and the influence model Dynamie Bayesian networks (DBNs) State space models Applications of SSMs SSMs for object tracking Robotic SLAM Online parameter learning using recursive least sąuares SSM for time series forecasting Inference in LG-SSM The Kalman filtering algorithm The Kalman smoothing algorithm Learning for LG-SSM Identifiability and numerical stability Training with fully observed data EM for LG-SSM Subspace methods Bayesian methods for "fitting" LG-SSMs Approximate online inference for non-linear, non-Gaussian SSMs Extended Kalman filter (EKF) Unscented Kalman filter (UKF) Assumed density filtering (ADF) Hybrid discrete/continuous SSMs Inference Application: data association and multi-target tracking Application: fault diagnosis Application: econometric forecasting Undirected graphical models (Markov random fields) Conditional independence properties of UGMs An undirected alternative to d-separation Comparing directed and undirected graphical models Parameterization of MRFs The Hammersley-Clifford theorem Representing potential functions Ising model Hopfield networks Potts model Gaussian MRFs Markov logie networks Learning Training maxent models using gradient method Training partially observed maxent models Approximate methods for computing the MLEs of MRFs Pseudo likelihood Stochastic maximum likelihood Feature induction for maxent models Iterative proportional fitting (IPF) Conditional random fields (CRFs) Chain-structured CRFs, MEMMs and the label-bias problem Structural SVMs SSVMs: a probabilistic view SSVMs: a non-probabilistic view Cutting piane methods for fitting SSVMs Online algorithms for fitting SSVMs Latent structural SVMs Exact inference for graphical models Belief propagation for trees Serial protocol Parallel protocol Gaussian belief propagation * Other BP variants The variable elimination algorithm The generalized distributive law Computational complexity of VE A weakness of VE The junction tree algorithm Creating a junction tree Message passing on a junction tree Computational complexity of JTA generalizations * 728 20.5 Computational intractability of exact inference in the worst case 728 20.5.1 Approximate inference Variational inference Variational inference Alternative interpretations of the variational objective Forward or reverse KL? The mean field method Derivation of the mean field update eąuations Example: mean field for the Ising model Structured mean field Example: factorial HMM Variational Bayes Example: VB for a univariate Gaussian Example: VB for linear regression Variational Bayes EM Example: VBEM for mixtures of Gaussians *Variational message passing and VIBES Local variational bounds Motivating applications Bohning's ąuadratic bound to the log-sum-exp function Bounds for the sigmoid function Other bounds and approximations to the log-sum-exp function Variational inference based on upper bounds More mriationał inference Loopy belief propagation: algorithmic issues LBP on pairwise models LBP on a factor graph Convergence Accuracy of LBP Other speedup tricks for LBP Loopy belief propagation: theoretical issues UGMs represented in exponential family form The marginal polytope Exact inference as a variational optimization problem Mean field as a variational optimization problem LBP as a variational optimization problem Loopy BP vs mean field Extensions of belief propagation Generalized belief propagation Convex belief propagation Expectation propagation EP as a variational inference problem Optimizing the EP objective using moment matching EP for the clutter problem LBP is a special case of EP Ranking players using TrueSkill Other applications of EP MAP state estimation Linear programming relaxation Max-product belief propagation Graphcuts Experimental comparison of graphcuts and BP Dual decomposition Monte Carlo inference Sampling from standard distributions Using the cdf Sampling from a Gaussian (Box-Muller method) Rejection sampling Application to Bayesian statistics Adaptive rejection sampling Rejection sampling in high dimensions Importance sampling Handling unnormalized distributions Importance sampling for a DGM: likelihood weighting Sampling importance resampling (SIR) Particie filtering Seąuential importance sampling The degeneracy problem The resampling step The proposal distribution Application: robot localization Application: visual object tracking Application: time series forecasting Rao-Blackwellised particie filtering (RBPF) RBPF for switching LG-SSMs Application: tracking a maneuvering target Application: Fast SLAM 24 Markov chain Monte Carlo (MCMC) inference Gibbs sampling Example: Gibbs sampling for the Ising model Example: Gibbs sampling for inferring the parameters of a GMM Collapsed Gibbs sampling Gibbs sampling for hierarchical GLMs BUGS and JAGS The Imputation Posterior (IP) algorithm Blocking Gibbs sampling Metropolis Hastings algorithm Gibbs sampling is a special case of MH Proposal distributions Adaptive MCMC Initialization and mode hopping Why MH works Reversible jump (trans-dimensional) MCMC Speed and accuracy of MCMC The burn-in phase Mixing rates of Markov chains Practical convergence diagnostics Accuracy of MCMC Auxiliary variable MCMC Auxiliary variable sampling for logistic regression Slice sampling Swendsen Wang Hybrid/Hamiltonian MCMC Annealing methods Simulated annealing Annealed importance sampling Parallel tempering Approximating the marginal likelihood The candidate method Harmonie mean estimate Annealed importance sampling Clustering Measuring (dis)similarity Evaluating the output of clustering methods Dirichlet process mbriure models From finite to infinite mbeture models The Dirichlet process Applying Dirichlet processes to mixture modeling Fitting a DP mixture model Affinity propagation Spectral clustering Graph Laplacian Normalized graph Laplacian Hierarchical clustering Agglomerative clustering Divisive clustering Choosing the number of clusters Bayesian hierarchical clustering Clustering datapoints and features Biclustering Multi-view clustering Graphical model structure learning Structure learning for knowledge discovery Relevance networks Dependency networks Learning tree structures Directed or undirected tree? Chow-Liu algorithm for finding the ML tree structure 9Finding the MAP forest Mbrtures of trees Learning DAG structures Markov equivalence Exact structural inference Scaling up to larger graphs Learning DAG structure with latent variables Approximating the marginal likelihood when we have missing data Structural EM Discovering hidden variables Case study: Googles Rephil Structural eąuation models Learning causal DAGs Causal interpretation of DAGs Using causal DAGs to resolve Simpsohs paradox Learning causal DAG structures Learning undirected Gaussian graphical models MLE for a GGM Graphical lasso Bayesian inference for GGM structure Handling non-Gaussian data using copulas Learning undirected discrete graphical models Graphical lasso for MRFs/CRFs Thin junction trees Latent variable models for discrete data Distributed state LVMs for discrete data Mbrture models Exponential family PCA LDA and mPCA GaP model and non-negative matrix factorization Latent Dirichlet allocation (LDA) Unsupervised discovery of topics Quantitatively evaluating LDA as a language model Fitting using (collapsed) Gibbs sampling Fitting using batch variational inference Fitting using online variational inference Determining the number of topics Correlated topie model Dynamie topie model LDA-HMM Supervised LDA LVMs for graph-structured data Stochastic błock model Mixed membership stochastic błock model Relational topie model LVMs for relational data Infinite relational model Probabilistic matrix factorization for collaborative filtering Restricted Boltzmann machines (RBMs) Varieties of RBMs Learning RBMs Applications of RBMs Deep learning Deep generative models Deep directed networks Deep Boltzmann machines Deep belief networks Greedy layer-wise learning of DBNs Deep neural networks Deep multi-layer perceptrons Deep auto-encoders Stacked denoising auto-encoders Applications of deep networks Handwritten digit classification using DBNs Data visualization and feature discovery using deep auto-encoders Information retrieval using deep auto-encoders (semantic hashing) Learning audio features using ld convolutional DBNs Learning image features using 2d convolutional DBNs
Sygnatura czytelni BMW: XIII 90 (nowy)
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. MZ 394 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Data Science algorithms in a week : top 7 algorithms for scientific computing, data analysis, and machine learning.
Wydanie 2. odnosi się do oryginału.
Indeks.
Rozdział 1. Klasyfikacja na podstawie najbliższego sąsiedztwa Subiektywne odczuwanie temperatury Implementacja algorytmu k najbliższych sąsiadów Mapa Włoch - przykład doboru wartości k Skalowanie danych - prognozowanie statusu własności Nieeuklidesowe metryki odległości punktów - klasyfikowanie tekstów Klasyfikowania tekstów ciąg dalszy - wielowymiarowy algorytm k-NN Problemy Subiektywne odczuwanie temperatury Mapa Włoch - przykład doboru wartości k Status własności Rozdział 2. Naiwny klasyfikator bayesowski Testy medyczne - podstawowe zastosowanie twierdzenia Bayesa Podstawowe twierdzenie Bayesa i jego rozszerzenie Twierdzenie Bayesa Rozszerzone twierdzenie Bayesa Zagramy w szachy? - niezależne zdarzenia warunkujące Implementacja naiwnego klasyfikatora bayesowskiego Zagramy w szachy? - częściowo zależne zdarzenia warunkujące Chłopak czy dziewczyna? - twierdzenie Bayesa dla ciągłych zmiennych losowych Rozdział 3. Drzewa decyzyjne Pływamy? - reprezentowanie danych w postaci drzewa decyzyjnego Elementy teorii informacji Entropia informacyjna Zysk informacyjny Pływamy? - obliczanie zysku informacyjnego Algorytm ID3 - konstruowanie drzewa decyzyjnego Pływamy? - budowanie drzewa decyzyjnego Implementacja w języku Python Klasyfikowanie danych za pomocą drzew decyzyjnych Przykład - pływamy czy nie? Przykład - gra w szachy pod chmurką Na zakupy - przykład niespójnych danych Rozdział 4. Lasy losowe Ogólne zasady konstruowania lasów losowych Pływamy? - klasyfikacja za pomocą lasu losowego Konstruowanie lasu losowego Klasyfikowanie cechy na podstawie lasu losowego Implementacja algorytmu konstruowania lasu losowego Przykład - zagramy w szachy? Konstruowanie lasu losowego Klasyfikacja w drodze głosowania Idziemy na zakupy? - wnioskowanie z niespójnych danych i miara wiarygodności wyniku Rozdział 5. Klasteryzacja Dochód gospodarstwa domowego - niski czy wysoki? Algorytm k-średnich Początkowy zbiór centroidów Wyznaczanie centroidu klastera Przykład - wykorzystanie algorytmu k-średnich do klasyfikacji dochodów Klasyfikowanie przez klasteryzację - prognozowanie płci nieznanej osoby Implementacja algorytmu k-średnich Status własności - dobór optymalnej liczby klasterów Klasyfikowanie dokumentów - semantyczne znaczenie klasteryzacji Rozdział 6. Analiza regresji Konwersja temperatur - regresja liniowa dla danych doskonałych Rozwiązanie analityczne Metoda najmniejszych kwadratów w regresji liniowej Implementacja analizy regresji liniowej w Pythonie Regresja dla danych pomiarowych - prognozowanie wagi na podstawie wzrostu Metoda spadku gradientowego i jej implementacja Szczegóły algorytmu Implementacja w Pythonie Przewidywanie czasu przelotu na podstawie odległości Obliczenia balistyczne - model nieliniowy Rozdział 7. Analiza szeregów czasowych Zysk w biznesie - analiza trendu Sprzedaż w sklepie internetowym - analiza sezonowości Analiza trendu Analiza sezonowości Dodatek A. Podstawy języka Python Przykład Komentarze Typy danych int float Napis Krotka Lista Zbiór Słownik Przepływ sterowania Instrukcje warunkowe Pętla for Pętla while Instrukcje break i continue Funkcje Wejście-wyjście programu Argumenty wywołania programu Operacje na plikach Dodatek B. Statystyka Podstawowe koncepcje Notacja Podstawowe pojęcia Wnioskowanie bayesowskie Rozkład normalny Gaussa Walidacja krzyżowa Testowanie A/B
Sygnatura czytelni BWEAiI: XII D 6
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148488 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Practical time series analysis : prediction with statistics and machine learning.
Na okładce, grzbiecie i stronie tytyłowej również nazwa wydawcy oryginału: O'Reilly.
1. Koncepcja szeregów czasowych 15 Szeregi czasowe w różnych dziedzinach - krótka historia 15 Szeregi czasowe w medycynie 16 Przewidywanie pogody 20 Prognozy rozwoju gospodarczego 21 Astronomia 23 Początki analizy szeregów czasowych 24 Metody statystyczne w analizie szeregów czasowych 25 Uczenie maszynowe w analizie szeregów czasowych 26 2. Pozyskiwanie i przetwarzanie szeregów czasowych 29 Gdzie można znaleźć szeregi czasowe? 30 Gotowe zestawy danych 30 Odnajdywanie szeregów czasowych 36 Konstruowanie szeregu czasowego na podstawie danych tabelarycznych 37 Przygotowanie danych - instrukcja krok po kroku 38 Konstruowanie szeregu czasowego na podstawie zebranych danych 44 Problemy związane ze znacznikami czasu 46 Czego dotyczy dany znacznik? 46 Praca z danymi pozbawionymi dokumentacji 48 Co to jest znacząca skala czasu? 50 Oczyszczanie danych 50 Brakujące dane 51 Zmiana częstotliwości próbkowania 60 Wygładzanie danych 63 Wahania sezonowe 68 Strefy czasowe 71 Zapobieganie zjawisku lookahead 74 3. Metody eksplorowania danych czasowych 79 Metody ogólnego przeznaczenia 79 Wykresy liniowe 80 Histogramy 82 Wykresy punktowe 84 Metody przeznaczone do eksploracji szeregów czasowych 86 O stacjonarności słów kilka 86 Stosowanie okien czasowych 90 Związki pomiędzy wartościami w szeregu 95 Korelacje pozorne 105 Przegląd użytecznych metod wizualizacji 107 Wizualizacje w jednym wymiarze 107 Wizualizacje w dwóch wymiarach 108 Wizualizacje w trzech wymiarach 114 4. Symulacje szeregów czasowych 119 Czym wyróżniają się symulacje szeregów czasowych? 120 Symulacje kontra prognozy 120 Symulacje w implementacjach 121 Przykład 1. - zrób to sam 121 Przykład 2. - tworzenie świata symulacji, który sam sobą steruje 126 Przykład 3. - symulacja zjawiska fizycznego 132 Symulacje z wykorzystaniem metod statystycznych 138 Symulacje z wykorzystaniem uczenia głębokiego 138 5. Przechowywanie danych czasowych 141 Definiowanie wymagań 143 Dane rzeczywiste a dane przechowywane 144 Bazy danych 146 SQL kontra NoSQL 147 Przegląd popularnych rozwiązań bazodanowych dla szeregów czasowych 149 Przechowywanie danych w plikach 153 NumPy 154 Pandas 155 Odpowiedniki w środowisku R 155 Xarray 156 6. Modele statystyczne 159 Dlaczego nie należy korzystać z regresji liniowej? 159 Metody statystyczne dla szeregów czasowych 161 Modele autoregresyjne 161 Modele ze średnią ruchomą 174 Zintegrowane modele autoregresyjne średniej ruchomej 178 Model wektorowej autoregresji 187 Inne modele 191 Zalety i wady modeli statystycznych 192 7. Modele zmiennych stanu 195 Wady i zalety modeli zmiennych stanu 196 Filtr Kalmana 197 Model 197 Implementacja 199 Ukryte modele Markowa 203 Sposób działania modelu 204 Dopasowywanie modelu 205 Implementacja dopasowania modelu 208 Bayesowskie strukturalne szeregi czasowe (BSTS) 213 Implementacja 214 8. Generowanie i selekcja cech 221 Przykład wprowadzający 222 Ogólne uwagi dotyczące cech 223 Natura danego szeregu 223 Wiedza dziedzinowa 224 Parametry zewnętrzne 225 Przegląd miejsc, w których można szukać inspiracji dotyczących wyboru cech 225 Biblioteki dostępne na licencji open source 226 Przykłady cech powiązanych z konkretnymi dziedzinami 230 Jak dokonać selekcji cech po ich wygenerowaniu? 233 9. Uczenie maszynowe w analizie szeregów czasowych 239 Klasyfikacja szeregów czasowych 240 Generowanie i selekcja cech 240 Drzewa decyzyjne 243 Klasteryzacja 250 Generowanie cech 251 Metryki uwzględniające zmianę czasu 258 Klasteryzacja w kodzie 262 10. Uczenie głębokie 267 Geneza uczenia głębokiego 269 Implementacja sieci neuronowej 271 Dane, symbole, operacje, warstwy i grafy 272 Budowa potoku uczenia 275 Spojrzenie na zestaw danych 275 Elementy potoku uczenia 278 Jednokierunkowe sieci neuronowe 293 Prosty przykład 293 Wykorzystanie modelu atencji do uczynienia jednokierunkowych sieci bardziej świadomymi czasu 296 Konwolucyjne sieci neuronowe 298 Prosty model sieci konwolucyjnej 300 Alternatywne modele konwolucyjne 302 Rekurencyjne sieci neuronowe 304 Kontynuacja przykładu z zapotrzebowaniem na prąd 307 Autoenkoder 308 Połączenie architektur 309 11. Pomiary błędów 317 Podstawy: jak przetestować prognozę? 318 Weryfikacja historyczna a kwestie związane z konkretnym modelem 320 Kiedy prognoza jest wystarczająco dobra? 321 Szacowanie niepewności modelu w oparciu o symulację 323 Prognozowanie na wiele kroków naprzód 326 Bezpośrednie dopasowanie do danego horyzontu 326 Podejście rekurencyjne do odległych horyzontów czasowych 326 Uczenie wielozadaniowe w kontekście szeregów czasowych 327 Pułapki walidacji 327 12. Kwestie wydajnościowe w dopasowywaniu i wdrażaniu modeli 331 Praca z narzędziami przeznaczonymi do bardziej ogólnych przypadków użycia 332 Modele zbudowane z myślą o danych przekrojowych nie "współdzielą" danych pomiędzy próbkami 332 Modele, które nie wspierają wcześniejszego obliczania, tworzą niepotrzebne opóźnienia pomiędzy pomiarem a prognozowaniem 334 Wady i zalety formatów zapisu danych 334 Przechowuj dane w formacie binarnym 335 Przetwarzaj dane w sposób umożliwiający "przesuwanie się" po nich 335 Modyfikacje analizy dla zwiększenia jej wydajności 336 Wykorzystanie wszystkich danych to niekoniecznie najlepszy pomysł 336 Złożone modele nie zawsze sprawdzają się znacznie lepiej 337 Krótki przegląd innych wysokowydajnych narzędzi 338 13. Zastosowania w obszarze opieki zdrowotnej 341 Przewidywanie grypy 341 Studium przypadku grypy w jednym obszarze metropolitalnym 341 Jak obecnie wygląda prognozowanie grypy? 354 Przewidywanie stężenia cukru we krwi 356 Eksploracja danych i ich oczyszczanie 357 Generowanie cech 361 Dopasowanie modelu 366 14. Zastosowania w obszarze finansów 373 Pozyskiwanie i eksploracja danych finansowych 374 Wstępne przetwarzanie danych do uczenia głębokiego 380 Dodawanie interesujących nas wielkości do surowych danych 380 Skalowanie interesujących nas wielkości bez wprowadzania zjawiska lookahead 381 Formatowanie danych do sieci neuronowej 383 Budowanie i uczenie rekurencyjnej sieci neuronowej 386 15. Szeregi czasowe w danych rządowych 393 Pozyskiwanie danych rządowych 394 Eksploracja dużych zbiorów danych czasowych 395 Zwiększenie częstotliwości próbkowania i agregowanie danych podczas iteracji 399 Sortowanie danych 399 Statystyczna analiza szeregów czasowych "w locie" 403 Pozostałe pytania 412 Dalsze możliwości poprawy 413 16. Pakiety przeznaczone do pracy z szeregami czasowymi 415 Prognozowanie na dużą skalę 415 Wewnętrzne narzędzia Google'a do przemysłowego prognozowania 416 Otwartoźródłowy pakiet Prophet od Facebooka 418 Wykrywanie anomalii 422 Otwartoźródłowy pakiet AnomalyDetection od Twittera 422 Inne pakiety stworzone z myślą o szeregach czasowych 425 17. Prognozy o prognozowaniu 427 Prognozowanie jako usługa 427 Uczenie głębokie zwiększa możliwości probabilistyczne 428 Wzrost znaczenia uczenia maszynowego kosztem statystyki 429 Wzrost popularności metod łączących podejście statystyczne i uczenie maszynowe 429 Więcej prognoz dotyczących życia codziennego 430
Sygnatura czytelni BWEAiI: XII A 85
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149866 N (1 egz.)
Książka
W koszyku
Indeks.
Czym jest uczenie maszynowe Wprowadenie do języka R i RStudio Zarządzanie danymi Regresja liniowa logistycna K najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Ocena wydajności Ulepszanie wydajności Odkrywanie wzorców za pomocą reguł asocjacyjnych Grupowanie danych poprzez klasteryzację
Sygnatura czytelni BWEAiI: XII L 49
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 152589 (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności