Uczenie maszynowe
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(63)
Forma i typ
Książki
(61)
Publikacje fachowe
(33)
Publikacje dydaktyczne
(18)
Publikacje naukowe
(16)
Artykuły
(2)
Poradniki i przewodniki
(2)
Publikacje popularnonaukowe
(1)
Dostępność
tylko na miejscu
(42)
dostępne
(24)
nieokreślona
(2)
Placówka
Wypożyczalnia
(24)
Biblioteka Międzywydziałowa
(4)
Biblioteka WEiZ
(1)
Egzemplarz lektoryjny
(1)
Magazyn
(1)
Biblioteka WEAiI
(37)
Autor
Sawka Krzysztof
(6)
Grażyński Andrzej
(3)
Géron Aurélien
(3)
Matuk Konrad
(3)
Janusz Jacek
(2)
Norvig Peter
(2)
Russell Stuart J. (1962- )
(2)
Szeliga Marcin
(2)
Walczak Tomasz
(2)
Walczak Tomasz (tłumacz)
(2)
Watrak Andrzej
(2)
Wawrzyński Paweł (1978- )
(2)
Adamczyk-Karwowska Agnieszka
(1)
Albon Chris
(1)
Albrzykowski Leszek
(1)
Ameisen Emmanuel
(1)
Barth Antje
(1)
Bhargava Aditya Y
(1)
Bombik Wojciech
(1)
Bonaccorso Giuseppe (informatyka)
(1)
Brzęcki Mariusz
(1)
Chapple Mike (1975- )
(1)
Chollet François
(1)
Chounlamany-Turalska Natalia
(1)
Cichosz Paweł
(1)
Conway Drew
(1)
Deisenroth Marc Peter
(1)
Esposito Dino
(1)
Esposito Francesco
(1)
Faisal A. Aldo
(1)
Fandango Armando
(1)
Fenner Mark E
(1)
Fenrich Wojciech
(1)
Fregly Chris
(1)
Gift Noah
(1)
Goldmeier Jordan
(1)
Grus Joel
(1)
Gutman Alex J
(1)
Gutowski Maksymilian
(1)
Górczyński Robert
(1)
Hearty John
(1)
Hejducka Paulina
(1)
Hubisz Jakub
(1)
Hulten Geoff
(1)
Hurbans Rishal
(1)
Jain Ankit
(1)
Kamiński Filip
(1)
Kamiński Filip (informatyk)
(1)
Kamiński Filip (informatyka)
(1)
Kanber Burak
(1)
Kapoor Amita
(1)
Kirk Matthew
(1)
Kneusel Ronald
(1)
Kordos Mirosław
(1)
Koronacki Jacek
(1)
Krawiec Krzysztof
(1)
Krechowicz Maria
(1)
Krzywicki Tomasz (informatyk)
(1)
Krzyśko Mirosław
(1)
Kurp Feliks
(1)
Kutyłowska Małgorzata
(1)
Kwiatkowski Przemysław (informatyk)
(1)
Lapan Maxim
(1)
Liu Yuxi
(1)
Mirjalili Vahid
(1)
Moroney Laurence
(1)
Muraszkiewicz Mieczysław (1948- )
(1)
Murphy Kevin P. (1970- )
(1)
Natingga Dávid
(1)
Niedźwiedź Jakub
(1)
Nielsen Aileen
(1)
Nowak Robert (informatyk)
(1)
Nwanganga Frederick Chukwuka
(1)
Ong Cheng Soon
(1)
Osinga Douwe
(1)
Osiński Jędrzej (informatyk)
(1)
Osowski Stanisław (1948- )
(1)
Piwko Łukasz
(1)
Ponteves Hadelin de
(1)
Prajsner Piotr
(1)
Przegalińska-Skierkowska Aleksandra (1982- )
(1)
Rajani Renu
(1)
Rajca Piotr
(1)
Rajca Piotr (1970- )
(1)
Raschka Sebastian
(1)
Ray Archana Tikayat
(1)
Sagalara Leszek
(1)
Sikorski Witold (informatyk)
(1)
Spurek Przemysław (matematyk)
(1)
Struski Łukasz
(1)
Szeremiota Przemysław
(1)
Szmurło Robert
(1)
Tabor Jacek (matematyk)
(1)
Topolski Mariusz
(1)
Unold Olgierd
(1)
Weidman Seth
(1)
Werner Grzegorz
(1)
White John Myles
(1)
White Ryan T
(1)
Wieczorek Tadeusz (1951- )
(1)
Rok wydania
2020 - 2024
(35)
2010 - 2019
(23)
2000 - 2009
(5)
Okres powstania dzieła
2001-
(53)
Kraj wydania
Polska
(62)
Stany Zjednoczone
(1)
Język
polski
(61)
angielski
(2)
Odbiorca
Szkoły wyższe
(10)
Programiści
(9)
Informatycy
(6)
Analitycy danych
(4)
Biegli rewidenci
(1)
Inwestorzy indywidualni
(1)
Inwestorzy instytucjonalni
(1)
Inżynierowie oprogramowania
(1)
Księgowi
(1)
Menedżerowie
(1)
Przedsiębiorcy
(1)
Urzędnicy
(1)
Temat
Budownictwo
(2412)
Zarządzanie
(2038)
Matematyka
(1930)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1790)
Uczenie maszynowe
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1012)
Turystyka
(953)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(932)
Automatyka
(916)
Język angielski
(873)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(761)
Technika
(743)
Konstrukcje budowlane
(727)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Piłka nożna
(690)
Transport
(673)
Elektroenergetyka
(667)
Marketing
(638)
Architektura
(637)
Innowacje
(620)
Naprężenia i odkształcenia
(613)
OZE
(606)
Programowanie (informatyka)
(590)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(567)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Materiałoznawstwo
(517)
Produkcja
(517)
Symulacja
(515)
Inwestycje
(508)
Praca
(503)
Zarządzanie jakością
(497)
Zarządzanie zasobami ludzkimi (HRM)
(496)
Analiza matematyczna
(495)
Dzieci
(489)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(468)
Przedsiębiorstwo
(468)
Szkolnictwo wyższe
(468)
Psychologia
(467)
Modele matematyczne
(465)
Internet
(464)
Metale
(462)
Nauka
(456)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(429)
Mechanika budowli
(425)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(382)
Banki
(379)
BHP
(375)
Rachunkowość zarządcza
(374)
Temat: czas
1901-2000
(1)
1945-1989
(1)
1989-2000
(1)
2001-
(1)
Temat: miejsce
Polska
(1)
Stany Zjednoczone (USA)
(1)
Gatunek
Podręcznik
(39)
Opracowanie
(6)
Monografia
(4)
Poradnik
(4)
Artykuł z czasopisma fachowego
(1)
Podręczniki akademickie
(1)
Praca zbiorowa
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(50)
Matematyka
(10)
Gospodarka, ekonomia, finanse
(2)
Inżynieria i technika
(2)
Zarządzanie i marketing
(1)
Kartoteka zagadnieniowa
Organizacja, Zarządzanie i Marketing
(2)
63 wyniki Filtruj
Brak okładki
Artykuł
W koszyku
Książka
W koszyku
W książce także ISBN oryginału 978-1-4842-3431-0.
Indeks.
Dane i specjaliści od uczenia się maszyn Inżynierowie oprogramowania Menedżerowie oprogramowania CZĘŚĆ I JAK PODCHODZIĆ DO PROJEKTU WYKORZYSTUJĄCEGO SYSTEMY INTELIGENTNE? 01Poznajmy systemy inteligentne Elementy systemu inteligentnego Przykład systemu inteligentnego Jak sprawić, że system będzie inteligentny? Do przemyślenia... 02Kiedy korzystać z systemów inteligentnych? Typy problemów potrzebujące systemów inteligentnych W jakich sytuacjach systemy inteligentne się sprawdzają? Gdy nie jesteśmy pewni, czy system inteligentny jest nam potrzebny 03Kilka wskazówek dotyczących pracy z danymi Struktura danych Jak zadawać proste pytania dotyczące danych Praca z modelami danych Koncepcyjne uczenie się maszyn Częste pułapki związane z pracą z danymi 04Jak określić cele systemu inteligentnego? Kryteria dobrego celu Przykład na to, że wybór celów jest trudny Typy celów Warstwy celów Sposoby pomiaru celów Dbałość o kondycję celów CZĘŚĆ II INTELIGENTNE DZIAŁANIA 05Komponenty inteligentnych działań Jak zaprezentować inteligencję użytkownikom? Jak osiągnąć cele systemu? Jak zminimalizować niedoskonałości inteligencji? Jak stworzyć dane, aby ulepszyć system? 06Dlaczego tworzenie inteligentnych działań jest trudne Inteligencja popełnia błędy Inteligencja popełnia szalone błędy Inteligencja popełnia błędy różnego rodzaju Inteligencja się zmienia Czynnik ludzki 07Równoważenie inteligentnych działań Siła Częstość Wartość sukcesu Koszt pomyłek Jakość inteligencji 08Tryby inteligentnej interakcji Automatyzacja Sugerowanie Organizowanie Anotowanie Działania hybrydowe 09Działania jako źródło danych Przykład: TeamMaker Własności dobrych danych Sposoby na zrozumienie rezultatów 10Weryfikacja inteligentnego działania Otrzymywanie zamierzonych działań Osiąganie celów Ciągła weryfikacja CZĘŚĆ III WDRAŻANIE INTELIGENCJI 11Komponenty wdrożenia inteligentnego systemu Przykład implementacji inteligentnego systemu Komponenty wdrożenia inteligencji 12Środowisko uruchomieniowe inteligencji Kontekst Ekstrakcja cech Modele Wykonywanie Wyniki 13Gdzie żyje inteligencja Rozważania na temat umiejscowienia inteligencji Miejsca, w których można umieścić inteligencję 14Zarządzanie inteligencją Przegląd zagadnień związanych z zarządzaniem inteligencją Sprawdzanie poprawności działania inteligencji Uruchamianie inteligencji Wyłączenie inteligencji 15Inteligentna telemetria Dlaczego telemetria jest potrzebna? Własności efektywnego systemu telemetrycznego Częste wyzwania CZĘŚĆ IV TWORZENIE INTELIGENCJI 16 Ogólnie o inteligencji Przykładowa inteligencja Konteksty Co inteligencja może przewidzieć 17Reprezentowanie inteligencji Kryteria reprezentacji inteligencji Reprezentowanie inteligencji za pomocą kodu Reprezentowanie inteligencji za pomocą tablic przeglądowych Reprezentowanie inteligencji za pomocą modeli 18Proces tworzenia inteligencji Przykład narzędzia do tworzenia inteligencji: mrugnięcie Zrozumienie środowiska Definiowane sukcesu Pozyskiwanie danych Gotowi do oceny Prosta heurystyka Uczenie się maszyn Zrozumienie kompromisów Ocena i iterowanie Dojrzałość tworzenia inteligencji Doskonałość tworzenia inteligencji 19Ocena inteligencji Ocena dokładności Ocena innego rodzaju prognoz Wykorzystywanie danych do oceny Porównywanie inteligencji Oceny subiektywne 20Inteligencja w uczeniu się maszyn Jak działa uczenie się maszyn Za i przeciw złożoności Projektowanie cech Modelowanie 21Organizowanie inteligencji Powody organizowania inteligencji Własności dobrze zorganizowanej inteligencji Sposoby organizowania inteligencji CZĘŚĆ V ORKIESTRACJA INTELIGENTNYCH SYSTEMÓW 22O orkiestracji inteligencji Własności dobrze zorkiestrowanej inteligencji Dlaczego potrzebujemy orkiestracji Orkiestracja zespołu 23Środowisko orkiestracji inteligencji Monitorowanie kryteriów powodzenia Sprawdzanie interakcji Równoważenie działania Nadpisywanie inteligencji Tworzenie inteligencji 24Postępowanie z błędami Najgorsze, co może się zdarzyć Sposoby, w jakie inteligencja może się zepsuć Ograniczanie błędów 25Przeciwnicy i nadużycia Nadużycia to biznes Skala nadużyć Jak wygląda problem nadużyć Sposoby walki z nadużyciami 26Próba utworzenia własnego systemu inteligentnego Lista kontrolna inteligentnego systemu
Sygnatura czytelni BWEAiI: XII Ą 85
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148904 N (1 egz.)
Książka
W koszyku
Algorytmy sztucznej inteligencji : ilustrowany przewodnik / Rishal Hurbans ; przekład: Tomasz Walczak. - Gliwice : Helion, copyright 2021. - XXIII, [1], 335 stron : ilustracje, wykresy ; 23 cm.
Tytuł oryginału: Grokking artificial intelligence algorithms.
1. Intuicyjne omówienie sztucznej inteligencji (1) Czym jest sztuczna inteligencja? (1) Krótka historia sztucznej inteligencji (6) Rodzaje problemów i modele ich rozwiązywania (8) Intuicyjne omówienie zagadnień z obszaru sztucznej inteligencji (10) Zastosowania algorytmów sztucznej inteligencji (14) 2. Podstawy przeszukiwania (21) Czym jest planowanie i przeszukiwanie? (21) Koszt obliczeń - powód stosowania inteligentnych algorytmów (24) Jakie problemy można rozwiązywać za pomocą algorytmów przeszukiwania? (25) Reprezentowanie stanu - tworzenie platformy do reprezentowania przestrzeni problemowej i rozwiązań (28) Przeszukiwanie siłowe - szukanie rozwiązań po omacku (33) Przeszukiwanie wszerz - najpierw wszerz, potem w głąb (35) Przeszukiwanie w głąb - najpierw w głąb, potem wszerz (44) Zastosowania siłowych algorytmów przeszukiwania (51) Opcjonalne informacje - rodzaje grafów (51) Opcjonalne informacje - inne sposoby reprezentowania grafów (54) 3. Inteligentne przeszukiwanie (57) Definiowanie heurystyk - projektowanie hipotez opartych na wiedzy (57) Przeszukiwanie sterowane - szukanie rozwiązań z wykorzystaniem wskazówek (60) Przeszukiwanie antagonistyczne - szukanie rozwiązań w zmiennym środowisku (70) 4. Algorytmy ewolucyjne (87) Czym jest ewolucja? (87) Problemy, jakie można rozwiązywać za pomocą algorytmów ewolucyjnych (90) Algorytm genetyczny - cykl życia (94) Kodowanie przestrzeni rozwiązań (97) Tworzenie populacji rozwiązań (102) Pomiar przystosowania osobników w populacji (104) Wybór rodziców na podstawie przystosowania (107) Generowanie osobników na podstawie rodziców (111) Tworzenie populacji następnego pokolenia (116) Konfigurowanie parametrów algorytmu genetycznego (120) Zastosowania algorytmów ewolucyjnych (121) 5. Zaawansowane techniki ewolucyjne (125) Cykl życia algorytmu ewolucyjnego (125) Różne strategie selekcji (127) Kodowanie z użyciem liczb rzeczywistych (130) Kodowanie porządkowe - korzystanie z sekwencji (134) Kodowanie za pomocą drzewa - praca z hierarchiami (137) Często spotykane rodzaje algorytmów ewolucyjnych (141) Słowniczek pojęć związanych z algorytmami ewolucyjnymi (142) Inne zastosowania algorytmów ewolucyjnych (143) 6. Inteligencja rozproszona: mrówki (145) Czym jest inteligencja rozproszona? (145) Problemy dostosowane do algorytmu mrówkowego (148) Reprezentowanie stanu - jak zapisać ścieżki i mrówki? (152) Cykl życia algorytmu mrówkowego (156) Zastosowania algorytmu mrówkowego (177) 7. Inteligencja rozproszona: cząstki (179) Na czym polega optymalizacja rojem cząstek? (179) Problemy optymalizacyjne - bardziej techniczne spojrzenie (181) Problemy, jakie można rozwiązać za pomocą optymalizacji rojem cząstek (185) Reprezentowanie problemu - jak wyglądają cząstki? (188) Przebieg działania algorytmu optymalizacji rojem cząstek (189) Zastosowania algorytmów optymalizacji rojem cząstek (209) 8. Uczenie maszynowe (213) Czym jest uczenie maszynowe? (213) Problemy, jakie można rozwiązywać za pomocą uczenia maszynowego (215) Przebieg uczenia maszynowego (217) Klasyfikowanie z użyciem drzew decyzyjnych (241) Inne popularne algorytmy uczenia maszynowego (258) Zastosowania algorytmów uczenia maszynowego (260) 9. Sztuczne sieci neuronowe (263) Czym są sztuczne sieci neuronowe? (263) Perceptron: reprezentacja neuronu (266) Definiowanie sieci ANN (271) Propagacja w przód - używanie wyuczonej sieci ANN (278) Propagacja wsteczna - uczenie sieci ANN (286) Możliwe funkcje aktywacji (298) Projektowanie sztucznych sieci neuronowych (299) Typy i zastosowania sieci ANN (303) 10. Uczenie przez wzmacnianie z użyciem algorytmu Q-learning (307) Czym jest uczenie przez wzmacnianie? (307) Problemy rozwiązywane za pomocą uczenia przez wzmacnianie (311) Przebieg uczenia przez wzmacnianie (313) Deep learning w uczeniu przez wzmacnianie (331) Zastosowania uczenia przez wzmacnianie (332)
Sygnatura czytelni BWEAiI: XII Ą 100
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 150525 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: TensorFlow machine learning projects : build 13 real-world projects with advanced numerical computations using the Python ecosystem.
Na okładce logo wydawcy oryginału: Packt.
Książka przeznaczona jest dla osób, które chcą nauczyć się tworzyć całościowe rozwiązania z wykorzystaniem uczenia maszynowego.
Rozdział 1. TensorFlow i uczenie maszynowe 19 Czym jest TensorFlow? 20 Rdzeń TensorFlow 20 Tensory 20 Stałe 22 Operacje 23 Węzły zastępcze 23 Tensory z obiektów Pythona 24 Zmienne 26 Tensory generowane z funkcji bibliotecznych 28 Uzyskiwanie zmiennych za pomocą tf.get_variable() 28 Graf obliczeniowy 29 Kolejność wykonywania i wczytywanie z opóźnieniem 30 Wykonywanie grafów na wielu urządzeniach obliczeniowych - CPU i GPGPU 31 Wiele grafów 35 Uczenie maszynowe, klasyfikacja i regresja logistyczna 35 Uczenie maszynowe 35 Klasyfikacja 37 Regresja logistyczna dla klasyfikacji binarnej 38 Regresja logistyczna dla klasyfikacji wieloklasowej 38 Regresja logistyczna z TensorFlow 39 Regresja logistyczna z Keras 41 Kwestie do rozważenia 43 Materiały dodatkowe 43 Rozdział 2. Wykorzystanie uczenia maszynowego do wykrywania egzoplanet w przestrzeni kosmicznej 45 Czym jest drzewo decyzyjne? 46 Do czego potrzebne są nam zespoły? 47 Metody zespołowe oparte na drzewach decyzyjnych 47 Lasy losowe 47 Wzmacnianie gradientowe 49 Zespoły oparte na drzewach decyzyjnych w TensorFlow 51 Estymator TensorForest 51 Estymator wzmacnianych drzew TensorFlow 52 Wykrywanie egzoplanet w przestrzeni kosmicznej 52 Budowanie modelu TFBT do wykrywania egzoplanet 56 Kwestie do rozważenia 61 Materiały dodatkowe 61 Rozdział 3. Analiza wydźwięku w przeglądarce przy użyciu TensorFlow.js 63 TensorFlow.js 64 Optymalizacja Adam 65 Strata kategoryzacyjnej entropii krzyżowej 66 Osadzanie słów 67 Budowanie modelu analizy wydźwięku 68 Wstępne przetwarzanie danych 69 Budowanie modelu 70 Uruchamianie modelu w przeglądarce przy użyciu TensorFlow.js 71 Kwestie do rozważenia 75 Rozdział 4. Klasyfikacja cyfr przy użyciu TensorFlow Lite 77 Czym jest TensorFlow Lite? 78 Mierniki oceny modeli klasyfikacji 80 Klasyfikacja cyfr przy użyciu TensorFlow Lite 81 Wstępne przetwarzanie danych i definiowanie modelu 82 Konwersja modelu TensorFlow na TensorFlow Lite 84 Kwestie do rozważenia 91 Rozdział 5. Rozpoznawanie mowy i ekstrakcja tematów przy użyciu NLP 93 Platformy i narzędzia do zamiany mowy na tekst 94 Zbiór poleceń głosowych Google Speech Commands Dataset 95 Architektura sieci neuronowej 95 Moduł ekstrakcji cech 96 Moduł głębokiej sieci neuronowej 96 Szkolenie modelu 97 Kwestie do rozważenia 99 Materiały dodatkowe 100 Rozdział 6. Przewidywanie cen akcji przy użyciu regresji procesu gaussowskiego 101 Twierdzenie Bayesa 102 Wprowadzenie do wnioskowania bayesowskiego 103 Wprowadzenie do procesów gaussowskich 104 Wybór jądra w PG 106 Zastosowanie PG do prognozowania rynku akcji 107 Tworzenie modelu prognozowania kursu akcji 109 Zrozumienie uzyskanych wyników 112 Kwestie do rozważenia 122 Rozdział 7. Wykrywanie oszustw dotyczących kart kredytowych przy użyciu autokoderów 123 Autokodery 124 Budowanie modelu wykrywania oszustw finansowych 125 Definiowanie i szkolenie modelu wykrywania oszustw finansowych 126 Testowanie modelu wykrywania oszustw finansowych 128 Kwestie do rozważenia 134 Rozdział 8. Generowanie niepewności w klasyfikatorze znaków drogowych przy użyciu bayesowskich sieci neuronowych 135 Bayesowskie uczenie głębokie 136 Twierdzenie Bayesa w sieciach neuronowych 137 TensorFlow Probability, wnioskowanie wariacyjne i metoda Monte Carlo 138 Budowanie bayesowskiej sieci neuronowej 140 Definiowanie, szkolenie i testowanie modelu 142 Kwestie do rozważenia 152 Rozdział 9. Dopasowywanie torebek na podstawie zdjęć butów z wykorzystaniem sieci DiscoGAN 153 Modele generatywne 154 Szkolenie sieci GAN 155 Zastosowania 157 Wyzwania 157 Sieci DiscoGAN 158 Podstawowe jednostki sieci DiscoGAN 159 Modelowanie sieci DiscoGAN 162 Budowanie modelu DiscoGAN 163 Kwestie do rozważenia 169 Rozdział 10. Klasyfikowanie obrazów odzieży przy użyciu sieci kapsułowych 171 Znaczenie sieci kapsułowych 172 Kapsuły 173 Jak działają kapsuły? 173 Algorytm trasowania dynamicznego 175 Wykorzystanie architektury CapsNet do klasyfikowania obrazów ze zbioru Fashion MNIST 178 Implementacja architektury CapsNet 178 Szkolenie i testowanie modelu 182 Rekonstrukcja przykładowych obrazów 187 Ograniczenia sieci kapsułowych 189 Rozdział 11. Tworzenie wysokiej jakości rekomendacji produktów przy użyciu TensorFlow 191 Systemy rekomendacji 192 Filtrowanie oparte na treści 193 Zalety algorytmów filtrowania opartego na treści 193 Wady algorytmów filtrowania opartego na treści 193 Filtrowanie kolaboratywne 193 Systemy hybrydowe 194 Rozkład macierzy 194 Przedstawienie zbioru danych Retailrocket 195 Analiza zbioru danych Retailrocket 195 Wstępne przetwarzanie danych 196 Model rozkładu macierzy dla rekomendacji Retailrocket 197 Model sieci neuronowej dla rekomendacji Retailrocket 200 Kwestie do rozważenia 202 Materiały dodatkowe 202 Rozdział 12. Wykrywanie obiektów na dużą skalę za pomocą TensorFlow 203 Wprowadzenie do Apache Spark 204 Rozproszony TensorFlow 206 Uczenie głębokie poprzez rozproszony TensorFlow 207 Poznaj TensorFlowOnSpark 210 Architektura TensorFlowOnSpark 210 Szczegóły API TFoS 211 Rozpoznawanie odręcznie zapisanych cyfr przy użyciu TFoS 212 Wykrywanie obiektów za pomocą TensorFlowOnSpark i Sparkdl 215 Transfer wiedzy 215 Interfejs Sparkdl 216 Budowanie modelu wykrywania obiektów 217 Rozdział 13. Generowanie skryptów książek przy użyciu LSTM 223 Rekurencyjne sieci neuronowe 224 Wstępne przetwarzanie danych 225 Definiowanie modelu 227 Szkolenie modelu 228 Definiowanie i szkolenie modelu generującego tekst 228 Generowanie skryptów książek 233 Kwestie do rozważenia 236 Rozdział 14. Gra w Pac-Mana przy użyciu uczenia głębokiego przez wzmacnianie 237 Uczenie przez wzmacnianie 238 Uczenie przez wzmacnianie a uczenie nadzorowane i nienadzorowane 238 Składniki uczenia przez wzmacnianie 239 OpenAI Gym 240 Gra Pac-Man w OpenAI Gym 241 Sieć DQN w uczeniu głębokim przez wzmacnianie 244 Zastosowanie sieci DQN do gry 246 Materiały dodatkowe 250 Rozdział 15. Co dalej? 251 Wdrażanie modeli TensorFlow do produkcji 251 TensorFlow Hub 252 TensorFlow Serving 254 TensorFlow Extended 255 Zalecenia dotyczące budowania aplikacji wykorzystujących sztuczną inteligencję 257 Ograniczenia uczenia głębokiego 258 Zastosowania sztucznej inteligencji w różnych branżach 259 Względy etyczne w sztucznej inteligencji 260
Sygnatura czytelni BWEAiI: XII Ł 174
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149867 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Hands-on machine learning with JavaScript : solve complex computational web problems using machine learning.
Indeks.
Rozdział 1. Poznawanie potencjału języka JavaScript 15 Język JavaScript 15 Uczenie maszynowe 18 Zalety i wyzwania związane ze stosowaniem języka JavaScript 20 Inicjatywa CommonJS 21 Node.js 22 Język TypeScript 24 Usprawnienia wprowadzone w ES6 26 Let i const 26 Klasy 27 Importowanie modułów 29 Funkcje strzałkowe 29 Literały obiektowe 31 Funkcja for...of 31 Obietnice 32 Funkcje async/wait 33 Przygotowywanie środowiska programistycznego 34 Instalowanie Node.js 34 Opcjonalne zainstalowanie Yarn 35 Tworzenie i inicjowanie przykładowego projektu 35 Tworzenie projektu "Witaj, świecie!" 36 Rozdział 2. Badanie danych 39 Przetwarzanie danych 39 Identyfikacja cech 42 Przekleństwo wymiarowości 43 Wybór cech oraz wyodrębnianie cech 45 Przykład korelacji Pearsona 48 Czyszczenie i przygotowywanie danych 51 Obsługa brakujących danych 51 Obsługa szumów 53 Obsługa elementów odstających 58 Przekształcanie i normalizacja danych 61 Rozdział 3. Przegląd algorytmów uczenia maszynowego 69 Wprowadzenie do uczenia maszynowego 70 Typy uczenia 70 Uczenie nienadzorowane 72 Uczenie nadzorowane 75 Uczenie przez wzmacnianie 83 Kategorie algorytmów 84 Grupowanie 84 Klasyfikacja 84 Regresja 85 Redukcja wymiarowości 85 Optymalizacja 86 Przetwarzanie języka naturalnego 86 Przetwarzanie obrazów 87 Rozdział 4. Algorytmy grupowania na podstawie klastrów 89 Średnia i odległość 90 Pisanie algorytmu k-średnich 93 Przygotowanie środowiska 93 Inicjalizacja algorytmu 94 Testowanie losowo wygenerowanych centroidów 99 Przypisywanie punktów do centroidów 100 Aktualizowanie położenia centroidów 102 Pętla główna 106 Przykład 1. - k-średnich na prostych danych dwuwymiarowych 107 Przykład 2. - dane trójwymiarowe 114 Algorytm k-średnich, kiedy k nie jest znane 116 Rozdział 5. Algorytmy klasyfikacji 123 k najbliższych sąsiadów 124 Implementacja algorytmu KNN 125 Naiwny klasyfikator bayesowski 138 Tokenizacja 140 Implementacja algorytmu 141 Przykład 3. - ocenianie charakteru recenzji filmów 150 Maszyna wektorów nośnych 154 Lasy losowe 162 Rozdział 6. Algorytmy reguł asocjacyjnych 169 Z matematycznego punktu widzenia 171 Z punktu widzenia algorytmu 174 Zastosowania reguły asocjacji 176 Przykład - dane ze sprzedaży detalicznej 178 Rozdział 7. Przewidywanie z użyciem algorytmów regresji 183 Porównanie regresji i klasyfikacji 184 Podstawy regresji 185 Przykład 1. - regresja liniowa 189 Przykład 2. - regresja wykładnicza 193 Przykład 3. - regresja wielomianowa 198 Inne techniki analizy szeregów czasowych 200 Filtrowanie 201 Analiza sezonowości 203 Analiza fourierowska 204 Rozdział 8. Algorytmy sztucznych sieci neuronowych 209 Opis koncepcji sieci neuronowych 210 Uczenie metodą propagacji wstecznej 214 Przykład - XOR z użyciem TensorFlow.js 217 Rozdział 9. Głębokie sieci neuronowe 227 Konwolucyjne sieci neuronowe 228 Konwolucje oraz warstwy konwolucyjne 229 Przykład - zbiór MNIST ręcznie zapisanych cyfr 234 Rekurencyjne sieci neuronowe 241 SimpleRNN 242 Topologia GRU 246 Długa pamięć krótkoterminowa - LSTM 249 Rozdział 10. Przetwarzanie języka naturalnego w praktyce 253 Odległość edycyjna 255 Ważenie termów - odwrotna częstość w dokumentach 257 Tokenizacja 263 Stemming 270 Fonetyka 272 Oznaczanie części mowy 274 Techniki przekazywania słów do sieci neuronowych 276 Rozdział 11. Stosowanie uczenia maszynowego w aplikacjach czasu rzeczywistego 281 Serializacja modeli 282 Uczenie modeli na serwerze 283 Wątki robocze 286 Modele samodoskonalące oraz spersonalizowane 287 Potokowanie danych 290 Przeszukiwanie danych 291 Łączenie i agregacja danych 293 Przekształcenia i normalizacja 295 Przechowywanie i dostarczanie danych 298 Rozdział 12. Wybieranie najlepszego algorytmu dla aplikacji 303 Tryb uczenia 305 Zadanie do wykonania 308 Format, postać, wejście i wyjście 309 Dostępne zasoby 312 W razie problemów 313 Łączenie modeli 316
Sygnatura czytelni BWEAiI: XII N 134
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148515 N (1 egz.)
Brak okładki
Książka
W koszyku
Na grzbiecie: Centrum Edukacyjne Promise, Grupa APN Promise.
Na okładce i karcie tytułowej: OʾReilly.
Indeks.
1.W przybliżeniu prawdopodobnie poprawne oprogramowanie Prawidłowe pisanie oprogramowania SOLID Testowanie albo TDD Refaktoring Pisanie prawidłowego oprogramowania Pisanie odpowiedniego oprogramowania przy zastosowaniu uczenia maszynowego Czym dokładnie jest uczenie maszynowe? Wysoko oprocentowany dług uczenia maszynowego Zastosowanie zasad SOLID w uczeniu maszynowym Kod uczenia maszynowego jest skomplikowany TDD: metoda naukowa 2.0 Refaktoring wiedzy 2.Szybkie wprowadzenie do uczenia maszynowego Czym jest uczenie maszynowe? Uczenie nadzorowane Uczenie nienadzorowane Uczenie wzmacniane Co może osiągnąć uczenie maszynowe? Notacja matematyczna używana w tej książce 3.K najbliższych sąsiadów Jak ustalić, czy chcemy kupić dom? Ile wart jest dany dom? Regresja hedonistyczna Czym jest sąsiedztwo? K najbliższych sąsiadów Najbliższe sąsiedztwo Odległości Nierówność trójkąta Odległość geometryczna Odległości obliczeniowe Odległości statystyczne Przekleństwo wymiarowości Jak wybrać K? Zgadywanie K Heurystyka wyboru K Wycenianie domów w Seattle Informacje o danych Ogólna strategia Projekt kodowania i testowania Konstrukcja regresora dla algorytmu K najbliższych sąsiadów Testowanie algorytmu K najbliższych sąsiadów 4.Naiwna klasyfikacja bayesowska Wykorzystanie twierdzenia Bayesa do znajdywania oszukańczych zamówień Prawdopodobieństwa warunkowe Symbole prawdopodobieństwa Odwrócone prawdopodobieństwo warunkowe (czyli twierdzenie Bayesa) Naiwny klasyfikator bayesowski Reguła łańcuchowa Naiwność w rozumowaniu bayesowskim Pseudozliczanie Filtr spamu Uwagi przygotowawcze Projekt kodowania i testowania Źródło danych EmailObject Analiza leksykalna i kontekst SpamTrainer Minimalizacja błędów przez sprawdzanie krzyżowe 5.Drzewa decyzyjne i losowe lasy decyzyjne Niuanse dotyczące grzybów Klasyfikowanie grzybów przy wykorzystaniu wiedzy ludowej Znajdowanie optymalnego punktu zwrotnego Zysk informacyjny Niejednorodność Giniego Redukcja wariancji Przycinanie drzew Uczenie zespołowe Pisanie klasyfikatora grzybów 6.Ukryte modele Markowa Śledzenie zachowania użytkownika przy użyciu automatów skończonych Emisje/obserwacje stanów Uproszczenie poprzez założenie Markowa Wykorzystanie łańcuchów Markowa zamiast automatu skończonego Ukryty model Markowa Ocena: algorytm Naprzód-Wstecz Matematyczne przedstawienie algorytmu Naprzód-Wstecz Wykorzystanie zachowania użytkownika Problem dekodowania poprzez algorytm Viterbiego Problem uczenia Oznaczanie części mowy z wykorzystaniem korpusu Browna Uwagi przygotowawcze Projekt kodowania i testowania Podstawa naszego narzędzia do oznaczania części mowy: CorpusParser Pisanie narzędzia do oznaczania części mowy Sprawdzanie krzyżowe w celu potwierdzenia poprawności modelu Jak ulepszyć ten model 7.Maszyny wektorów nośnych Zadowolenie klientów jako funkcja tego, co mówią Klasyfikacja nastrojów przy użyciu maszyn wektorów nośnych Teoria stojąca za maszynami wektorów nośnych Granica decyzyjna Maksymalizowanie granic Sztuczka jądrowa: transformacja cech Optymalizacja przez poluzowanie Analizator nastrojów Uwagi przygotowawcze Projekt kodowania i testowania Strategie testowania maszyny wektorów nośnych Klasa Corpus Klasa CorpusSet Sprawdzanie poprawności modelu i klasyfikator nastrojów Agregowanie nastrojów Wykładnicza ważona średnia ruchoma Mapowanie nastroju do wyniku finansowego 8.Sieci neuronowe Czym jest sieć neuronowa? Historia sieci neuronowych Logika boolowska Perceptrony Jak konstruować sieci neuronowe ze sprzężeniem w przód Warstwa wejściowa Warstwy ukryte Neurony Funkcje aktywacyjne Warstwa wyjściowa Algorytmy uczące Zasada delty Propagacja wsteczna QuickProp RProp Budowanie sieci neuronowych Ile ukrytych warstw? Ile neuronów dla każdej warstwy? Tolerancja błędów i maksymalna liczba epok Wykorzystanie sieci neuronowej do klasyfikowania języków Uwagi przygotowawcze Projekt kodowania i testowania Dane Pisanie testu podstawowego dla języka Przejście do klasy Network Dostrajanie sieci neuronowej Precyzja i czułość w sieciach neuronowych Podsumowanie przykładu 9. Grupowanie Badanie danych bez żadnego błędu systematycznego Kohorty użytkowników Testowanie mapowań do grup Zdatność grupy Współczynnik zarysu Porównywanie wyników z prawdą bazową Grupowanie K-średnich Algorytm K-średnich Słabe strony grupowania K-średnich Grupowanie przez maksymalizację wartości oczekiwanej Algorytm Twierdzenie o niemożności Przykład: kategoryzowanie muzyki Uwagi przygotowawcze Zbieranie danych Projekt kodowania Analizowanie danych przez algorytm K-średnich Grupowanie naszych danych Wyniki z grupowania danych dotyczących muzyki jazzowej z użyciem maksymalizowania wartości oczekiwanej 10.Poprawianie modeli i wydobywania danych Klub dyskusyjny Wybieranie lepszych danych Wybieranie cech Wyczerpujące wyszukiwanie Losowe wybieranie cech Lepszy algorytm wybierania cech Wybieranie cech przez minimalizowanie redundancji i maksymalizowanie istotności Transformacja cech i rozkład macierzy Analiza głównych składowych Analiza niezależnych składowych Uczenie zespołowe Grupowanie typu bootstrap Boosting Przypomnienie algorytmów uczenia maszynowego Jak wykorzystywać te informacje do rozwiązywania problemów
Sygnatura czytelni BWEAiI: XII Ł 98
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146120 N (1 egz.)
Książka
W koszyku
Deep learning : praktyczne wprowadzenie z zastosowaniem środowiska Pythona / Ron Kneusel ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 472 strony : fotografie, ilustracje, wykresy ; 23 cm.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: No starch press.
Indeks.
Środowisko operacyjne NumPy scikit-learn Keras i TensorFlow Instalacja narzędzi Podstawy algebry liniowej Wektory Macierze Mnożenie wektorów i macierzy Statystyka i prawdopodobieństwo Statystyka opisowa Rozkłady prawdopodobieństwa Testy statystyczne Procesory graficzne (GPU) 2. Korzystanie z Pythona Interpreter Pythona Instrukcje i białe znaki Zmienne i podstawowe struktury danych Przedstawianie liczb Zmienne Łańcuchy znaków Listy Słowniki Struktury sterowania Instrukcje if-elif-else Pętle for Pętle while Instrukcje break i continue Instrukcja with Obsługa błędów za pomocą bloków try-except Funkcje Moduły 3. Biblioteka NumPy Dlaczego NumPy? Tablice a listy Testowanie szybkości tablic i list Definiowanie tablicy za pomocą funkcji, np. array Definiowanie tablic wypełnionych zerami i jedynkami Dostęp do elementów tablicy Indeksowanie tablicowe Uzyskiwanie wycinków tablicy Wielokropek Operatory i rozgłaszanie Dane wejściowe i wyjściowe tablic Liczby losowe Biblioteka NumPy i obrazy 4. Praca z danymi Klasy i etykiety Cechy i wektory cech Dobór cech i klątwa wymiarowości Własności dobrego zestawu danych Interpolacja i ekstrapolacja Główny rozkład prawdopodobieństwa Rozkład a priori Przykłady mylące Rozmiar zestawu danych Przygotowanie danych Skalowanie cech Brakujące cechy Dane uczące, walidacyjne i testowe Trzy podzbiory Dzielenie zestawu danych k-krotny sprawdzian krzyżowy Analiza danych Wyszukiwanie problemów z danymi 5. Budowanie zestawów danych Kosaćce (zestaw danych Iris) Nowotwory piersi (zestaw danych Breast Cancer) Cyfry zapisane pismem odręcznym (zestaw danych MNIST) Różne obrazy (zestaw danych CIFAR-10) Rozszerzanie danych Dlaczego należy rozszerzać dane uczące? Sposoby rozszerzania danych Rozszerzanie zestawu danych Iris Rozszerzanie zestawu danych CIFAR-10 6. Klasyczne uczenie maszynowe Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne i lasy losowe Rekurencja Budowanie drzew decyzyjnych Lasy losowe Maszyny wektorów nośnych Marginesy Wektory nośne Optymalizacja Jądra 7. Eksperymentowanie z klasycznymi modelami Eksperymenty z użyciem zestawu danych Iris Testowanie klasycznych modeli Implementacja klasyfikatora najbliższego centroidu Eksperymenty z użyciem zestawu danych Breast Cancer Dwa pierwsze przebiegi testowe Skutek losowych podziałów Dodawanie k-krotnego sprawdzianu krzyżowego Poszukiwanie hiperparametrów Eksperymenty z użyciem zestawu danych MNIST Testowanie klasycznych modeli Analiza czasu działania Eksperymenty z głównymi składowymi analizy PCA Tasowanie zestawu danych Podsumowanie klasycznych modeli Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Lasy losowe Maszyny wektorów nośnych Kiedy używać klasycznych modeli? Korzystanie z małych zestawów danych Ograniczone zasoby obliczeniowe Dostęp do wyjaśnialnych modeli Praca z danymi wektorowymi 8. Wprowadzenie do sieci neuronowych Anatomia sieci neuronowej Neuron Funkcje aktywacji Architektura sieci Warstwy wyjściowe Wagi i obciążenia Implementacja prostej sieci neuronowej Przygotowanie zestawu danych Implementacja sieci neuronowej Uczenie i testowanie sieci neuronowej 9. Uczenie sieci neuronowej Algorytm gradientu prostego Wyszukiwanie minimów Aktualizowanie wag Stochastyczny spadek wzdłuż gradientu Grupy i minigrupy Funkcje wypukłe i niewypukłe Kończenie uczenia Aktualizowanie współczynnika uczenia Momentum Propagacja wsteczna Propagacja wsteczna - ujęcie pierwsze Propagacja wsteczna - ujęcie drugie Funkcje straty Błąd bezwzględny i błąd średniokwadratowy Entropia krzyżowa Inicjalizowanie wag Przetrenowanie i regularyzacja Przetrenowanie Regularyzacja Regularyzacja L2 Porzucanie 10. Eksperymentowanie z sieciami neuronowymi Nasz zestaw danych Klasa MLPClassifier Struktura sieci i funkcje aktywacji Kod Rozmiar grupy Podstawowy współczynnik uczenia Rozmiar zbioru uczącego Regularyzacja L2 Momentum Inicjalizacja wag Kolejność cech Ocenianie modeli Dlaczego dokładność jest niewystarczająca? Macierz pomyłek 2×2 Wskaźniki wyprowadzane z macierzy pomyłek Wyprowadzanie wskaźników na podstawie macierzy pomyłek Interpretowanie modeli za pomocą wskaźników Zaawansowane wskaźniki Informatywność i nacechowanie Wskaźnik F1 Współczynnik kappa Cohena Współczynnik korelacji Matthewsa Implementacja zaawansowanych wskaźników Krzywa charakterystyki operacyjnej odbiornika Dobór modeli Rysowanie wykresu wskaźników Analiza krzywej ROC Porównywanie modeli za pomocą analizy ROC Generowanie krzywej ROC Krzywa precyzji-czułości Przypadki wieloklasowe Rozszerzanie macierzy pomyłek Obliczanie dokładności ważonej Wieloklasowy współczynnik korelacji Matthewsa Wprowadzenie do splotowych sieci neuronowych Dlaczego splotowe sieci neuronowe? Splot Skanowanie za pomocą jądra Splot w przetwarzaniu obrazów Anatomia splotowej sieci neuronowej Różne typy warstw Przepuszczanie danych przez sieć splotową Warstwy splotowe Mechanizm działania warstwy splotowej Korzystanie z warstwy splotowej Wielokrotne warstwy splotowe Inicjalizacja warstwy splotowej Warstwy łączące Warstwy w pełni połączone Pełne warstwy splotowe Eksperymentowanie z biblioteką Keras i zestawem danych MNIST Budowanie sieci splotowych w bibliotece Keras Wczytywanie danych MNIST Budowanie modelu Uczenie i ocena modelu Tworzenie wykresu funkcji błędu Podstawowe eksperymenty Eksperymenty na architekturze Rozmiar zbioru uczącego, minigrup oraz liczba epok Optymalizatory Pełne sieci splotowe Budowa i trenowanie modelu Przygotowanie obrazów testowych Testowanie modelu Potasowane cyfry MNIST Eksperymentowanie z zestawem danych CIFAR-10 Zestaw CIFAR-10 - przypomnienie Praca na pełnym zestawie CIFAR-10 Budowanie modeli Analizowanie modeli Zwierzę czy pojazd? Model binarny czy wieloklasowy? Uczenie transferowe Strojenie modelu Przygotowanie zestawów danych Dostosowanie modelu do strojenia Testowanie modelu Studium przypadku: klasyfikowanie próbek dźwiękowych Budowanie zestawu danych Rozszerzanie zestawu danych Wstępne przetwarzanie danych Klasyfikowanie cech dźwiękowych Modele klasyczne Tradycyjna sieć neuronowa Splotowa sieć neuronowa Spektrogramy Klasyfikowanie spektrogramów Inicjalizacja, regularyzacja i normalizacja wsadowa Analiza macierzy pomyłek
Sygnatura czytelni BWEAiI: XII Ł 215
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153005 (1 egz.)
Brak okładki
Książka
W koszyku
(Rozprawy Naukowe / [Akademia Techniczno-Humanistyczna w Bielsku-Białej], ISSN 1643-983X ; nr 59)
Bibliografia na stronach [235]-244.
Part I Instance Selection with Similarity-based Methods Introduction to Instance Selection LI Data: Features and Instances 1.2Purpose and Idea of Instance Selection 1.3Software Packages 1.4Datasets Used in this Book Instance Selection in Classification Tasks 2.1Review of Selected Similarity-based Instance Selection Methods 2.2Reducing Computational Complexity 2.3Other Evaluation Models 2.4Comparison of Selected Similarity-based Instance Selection Methods Instance Selection in Regression Tasks 3.1Threshold-based Instance Selection for Regression Tasks 3.2Discretization-based Instance Selection for Regression Tasks 3.3Data Partitioning Weighting Schemes in Instance Selection 4.1Attribute Weighting 4.2Distance Weighting 4.3Diversity Weighting 4.4Outlier Weighting Ensemble Methods in Instance Selection 5.1Bagging of Instance Selection Algorithms 5.2Experimental Evaluation of Instance Selection Bagging Ensembles for Classification Tasks 5.4 Experimental Evaluation of Instance Selection Bagging Ensembles for Regression Tasks Joint Feature and Instance Selection 6.1Feature Filters 6.2Feature Wrappers 6.3Joined Feature and Instance Selection Part II Instance Selection with Evolutionary Methods Introduction to Evolutionary Optimization 7.1Basics of Genetic Algorithms 7.2Fitness Function and Selection 7.3Crossover 7.4Population Size and Initialization 7.5Mutation 7.6Elitism and Steady State Genetic Algorithms 7.7CHC Genetic Algorithms 7.8Cooperative Coevolution 7.9Multi-Objective Evolutionary Algorithms Single-Objective Evolutionary Instance Selection 8.1Encoding 8.2The Objectives and Fitness Function 8.3k-NN as the Inner Evaluation Algorithm Multi-Objective Evolutionary Instance Selection 9.1Encoding 9.2The Objectives 9.3Pareto Front 9.4Instance Selection Process 9.5Choice of the Multi-Objective Genetic Algorithm and its Parameters 9.6.1Problem Description 9.6.2Experimental Evaluation and Discussion 9.7Assessment of Population Initialization Methods 9.7.1Problem Description 9.7.2Experimental Evaluation and Discussion 9.8Tuning k-NN Parameters 9.8.1Problem Description 9.8.2Experimental Evaluation and Discussion 9.9Evaluating Instance Weighting Scheme 9.9.1Problem Description 9.9.2Experimental Evaluation and Discussion 9.10Comparison with Other Methods 9.11Classification Problems Additional Enhancements 10.1Data Space Partitioning 10.2Multiply Fronts to Extend Range and Prevent Over-fitting Optimization of Evolutionary Instance Selection 11.1Optimization of Genetic Algorithms Parameters 11.2.1Population Size and Multi-parent Crossover 11.2.2Fitness Function 11.2.3Shortening Chromosome 11.3Accelerating Calculations of Distance Matrix 11.4Analysis of Computational Time and Complexity Joint Evolutionary Feature and Instance Selection 12.1Sequential Evolutionary Feature and Instance Selection 12.2Features and Instances Encoded in the Same Chromosome 12.3Coevolutionary Feature and Instance Selection Instance Selection for Multi-Output Data 13.1Multi-Objective Evolutionary Instance Selection for Multi-output Regression 13.2Experimental Evaluation 13.3.1Experimental Setup 13.3.2Experimental Results Part III Instance Selection Embedded into Neural Networks Introduction to Neural Networks 14.1Multilayer Perceptron (MLP) 14.2Error Surface 14.3Neural Network Learning Algorithms 14.4.1Backpropagation and Rprop 14.4.2Variable Step Search Algorithm (VSS) Noise Reduction in Neural Network Learning 15.1Noise Reduction With Error Function Modifications 15.2Static Robust Error Measures 15.3.1Least Trimmed Absolute Values (LTA) 15.3.2Iterative Least Median of Squares (ILMedS) 15.3.3Least Mean Log Squares (LMLS) 15.3.4MAE 15.3.5Median Input Function (MIF) 15.3.6MedSum 15.4Dynamic Robust Error Measures 15.4.1 Trapeziod, Exponential, Three-Parabolic and Triangular Error Functions 15.5Experimental Evaluation and Conclusions Joining Embedded and Similarity-based Instance Selection Joint Feature and Instance Selection from Neural Networks 17.1Feature Selection Embedded into Neural Network Learning 17.2Other Methods from Literature 17.3Data Reduction with Boundary Vectors in Neural Networks 17.4Joint Feature and Instance Selection Embedded into Network Learning Special Neural Networks for Data Selection and Rule Extraction 18.1Network Construction and Training 18.2Rule Extraction and Feature Selection for Classification Tasks 18.3Rule Extraction and Feature Selection for Regression Tasks 18.4Instance Selection 18.6.1Decompositional Rule Extraction from Neural Networks 18.6.2Pedagogical Rule Extraction from Neural Networks 18.6.3Hybrid Rule Extraction from Neural Networks
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 147973 (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 112761 N (1 egz.)
Brak okładki
Książka
W koszyku
(Rozprawy / Politechnika Poznańska, ISSN 0551-6528 ; nr 385)
Bibliogr. s. [133]-143.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Magazyn
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 110045 LE (1 egz.)
Brak okładki
Książka
W koszyku
(Monografie, Studia, Rozprawy / Politechnika Świętokrzyska, ISSN 1897-2691 ; M150)
(Inżynieria Środowiska i Energetyka)
Bibliografia, netografia na stronach 308-320.
1.Istota ryzyka i jego specyfika w analizowanych nowoczesnych przedsięwzięciach inżynierii środowiska 2.1.Istota ryzyka 2.2.Istota zarządzania ryzykiem 2.3.Charakterystyka analizowanych nowoczesnych przedsięwzięć inżynierii środowiska i aktualny stan wiedzy na temat zarządzania ryzykiem w tego rodzaju przedsięwzięciach 2.3.1.Budownictwo pasywne 2.3.2.Budownictwo zasobooszczędne z wykorzystaniem odnawialnych źródeł energii 2.3.3.Przedsięwzięcia innowacyjne inżynierii środowiska 2.3.4.Zrównoważona budowa infrastruktury podziemnej miast 2.3.5.Przedsięwzięcia inżynierii środowiska realizowane wspólnie przez dwa lub więcej podmiotów 2.4.Specyfika ryzyka i zarządzania ryzykiem w nowoczesnych przedsięwzięciach inżynierii środowiska 3.Proponowana metodyka zarządzania ryzykiem przeznaczona dla nowoczesnych przedsięwzięć inżynierii środowiska 3.1.Założenia przy projektowaniu metodyki 3.2.Charakterystyka proponowanej metodyki zarządzania ryzykiem 4.Proponowany hybrydowy model zarządzania ryzykiem z wykorzystaniem metod zarządzania jakością (metody FMEA i analizy Pareto-Lorenza) - model Ml 4.1.Podstawy teoretyczne modelu Ml 4.2.Proponowane podejście 4.3.Przykład zastosowania modelu Ml do oceny ryzyka w kategorii I NPIS 4.3.1.Identyfikacja ryzyka w budownictwie pasywnym 4.3.2.Jakościowa analiza ryzyka w budownictwie pasywnym 4.3.3.Ilościowa ocena ryzyka w budownictwie pasywnym z wykorzystaniem metody FMEA i analizy Pareto-Lorenza 4.4.Przykład zastosowania modelu M1 do oceny ryzyka w kategorii IV NPIŚ 4.4.1.Ocena częstotliwości występowania i dotkliwości skutków ryzyka w technologii HDD w skali FMEA 4.4.2.Identyfikacja możliwości wykrywania wad w technologii HDD i ich ocena 4.4.3.Wyniki oceny ryzyka w technologii HDD z wykorzystaniem metody FMEA i analizy Pareto-Lorenza 4.5.Przykład zastosowania modelu M1 do oceny ryzyka w kategorii V NPIŚ 5. Proponowane hybrydowe modele zarządzania ryzykiem z wykorzystaniem logiki rozmytej 5.1.Podstawy teoretyczne modeli 5.1.1.Analiza drzewa niezdatności i drzewa zdarzeń 5.1.2.Teoria zbiorów rozmytych 5.2.Model zarządzania ryzykiem z wykorzystaniem hybrydowego drzewa niezdatności zintegrowanego z macierzą reagowania na ryzyko oraz elementów logiki rozmytej - model M2 5.2.1.Opis matematyczny modelu M2 5.2.2.Przykład zastosowania modelu M2 w kategorii I NPIŚ ] 5.2.2.1.Identyfikacja zdarzeń niepożądanych 5.2.2.2.Identyfikacja możliwości reakcji na ryzyko i redukcji ryzyka 5.2.2.3.Jakościowa i ilościowa analiza ryzyka 5.2.2.4.Porównanie różnych możliwości reakcji na ryzyko 5.2.2.5.Podsumowanie przykładu 5.2.3.Przykład zastosowania modelu M2 w kategorii II NPIŚ 5.2.3.1.Identyfikacja ryzyka 5.2.3.2.Identyfikacja możliwości reakcji na ryzyko i redukcji ryzyka 5.2.3.3.Jakościowa i ilościowa analiza ryzyka 5.2.3.4.Porównanie różnych możliwości reakcji na ryzyko 5.2.3.5.Podsumowanie przykładu 5.2.4.Przykład zastosowania modelu M2 w kategorii III NPIŚ 5.2.4.1.Identyfikacja ryzyka 5.2.4.2.Identyfikacja możliwości reakcji na ryzyko i redukcji ryzyka 5.2.4.3.Jakościowa i ilościowa analiza ryzyka 5.2.4.4.Porównanie różnych możliwości reakcji na ryzyko 5.2.4.5.Zarządzanie ryzykiem przy wykonywaniu prototypowych ruchomych żaluzji fasadowych zintegrowanych z fotowoltaiką 5.2.5.Przykład zastosowania modelu M2 w kategorii IV NPIŚ 5.2.5.1.Identyfikacja ryzyka 5.2.5.2.Identyfikacja możliwości reakcji na ryzyko i redukcji ryzyka 5.2.5.3.Jakościowa i ilościowa analiza ryzyka 5.2.5.4.Porównanie różnych możliwości reakcji na ryzyko 5.2.5.5.Podsumowanie przykładu 5.2.6.Przykład zastosowania modelu M2 w kategorii V NPIŚ 5.2.6.1.Identyfikacja ryzyka 5.2.6.2.Jakościowa i ilościowa analiza ryzyka 5.3.Model zarządzania ryzykiem z wykorzystaniem hybrydowego rozmytego drzewa niezdatności i drzewa zdarzeń - model M3 5.3.1.Opis matematyczny modelu M3 5.3.2.Przykład zastosowania modelu M3 w kategorii IV NPIŚ 6. Proponowane modele zarządzania ryzykiem z wykorzystaniem uczenia maszynowego 6.1.Podstawy teoretyczne modeli 6.1.1.Istota uczenia maszynowego 6.1.2.Wybrane klasyfikatory stosowane w uczeniu maszynowym 6.1.3.Możliwości wykorzystania uczenia maszynowego w zarządzaniu ryzykiem 6.2.Proponowane podejście (M4-M11) 6.3.Zbieranie danych i identyfikacja atrybutów 6.4.Profilowanie danych 6.5.Przetwarzanie danych 6.6.Sposób oceny jakości modeli 6.7.Proponowany model oceny ryzyka z wykorzystaniem regresji logistycznej (M4) 6.8.Proponowane modele oceny ryzyka z wykorzystaniem uczenia maszynowego w oparciu o K-najbliższych sąsiadów (M5), naiwny klasyfikator Bayesa (M6), kwadratową analizę dyskryminacyjną (M7), drzewa decyzyjne wzmocnione metodą AdaBoost (M8) i maszynę wektorów nośnych (M9) 6.9.Proponowany model oceny ryzyka z wykorzystaniem lasów losowych (M10) 6.10.Proponowany model oceny ryzyka z wykorzystaniem uczenia maszynowego w oparciu o sztuczne sieci neuronowe (Ml 1) 6.11.Uzyskane wyniki 6.11.1. Analiza korelacji 6.11.2.Analiza PCA 6.11.3.Model z wykorzystaniem regresji logistycznej (M4) 6.11.4.Model z wykorzystaniem uczenia maszynowego w oparciu o K-najbliższych sąsiadów (M5) 6.11.5.Model z wykorzystaniem uczenia maszynowego w oparciu o naiwny klasyfikator Bayesa (M6) 6.11.6.Model z wykorzystaniem uczenia maszynowego w oparciu o kwadratową analizę dyskryminacyjną (M7) 6.11.7.Model z wykorzystaniem uczenia maszynowego w oparciu o drzewa decyzyjne wzmocnione metodą AdaBoost (M8) 6.11.8.Model z wykorzystaniem uczenia maszynowego w oparciu o maszynę wektorów nośnych (M9) 6.11.9.Model z wykorzystaniem uczenia maszynowego w oparciu o lasy losowe (Ml0) 6.11.10.Model z wykorzystaniem uczenia maszynowego w oparciu o sztuczne sieci neuronowe (Ml 1)
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 152866 N (1 egz.)
Brak okładki
Książka
W koszyku
Bibliogr. s. [382]-391. Indeksy.
Dla studentów studiów matematycznych, informatycznych i technicznych, na których analiza danych jest przedmiotem obowiązkowym lub fakultatywnym.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Egzemplarz lektoryjny
Są egzemplarze dostępne do wypożyczenia: sygn. 120461 L (1 egz.)
Brak okładki
Książka
W koszyku
Bibliografie, netografie przy rozdziałach.
1. Wprowadzenie do systemów uczących się 1.1. Uczenie maszynowe 1.2. Uczenie maszynowe a sztuczna inteligencja 1.3. Problemy, które rozwiązuje uczenie maszynowe 1.4. System informacyjny w sensie Pawlaka 1.5. System decyzyjny w sensie Pawlaka 1.6. Idea uczenia maszynowego 1.6.1. Problem uczenia maszynowego 1.6.2. Uczenie klasyfikatora 1.6.3. Wymiar Vapnika-Chervonenkisa 1.6.4. Metoda PAC 1.7. Uczenie nadzorowane 1.8. Uczenie nienadzorowane 1.9. Uczenie półnadzorowane 1.10. Uczenie przez wzmacnianie 1.11. Twierdzenie Nofree lunches 2. Metody wstępnego przetwarzania danych 2.1. Popularne zbiory rzeczywistych danych 2.2. Typy wartości w atrybutach 2.2.1. Typ numeryczny 2.2.2.Typkategorialny 2.3. Oczyszczanie danych 2.3.1. Praca z nieprawidłowymi wartościami 2.3.2. Uzupełnianie brakujących wartości 2.4. Redukcja wymiarowości systemu 2.4.1. Analiza głównych składowych 2.4.2. Nadzorowana redukcja wymiarowości za pomocą liniowej analizy dyskryminacyjnej 2.4.3. Ocena istotności atrybutów za pomocą korelacji 2.4.4. Inne metody redukcji wymiarowości danych 3. Uczenie modeli i ich metryki 3.1. Parametry wydajności 3.1.1. Dokładność globalna 3.1.2. Dokładność zbalansowana 3.1.3. Stopień prawidłowej trafności w klasę decyzyjną 3.1.4. Stopień prawidłowej nietrafności w klasę decyzyjną 3.1.5. Stopień błędnej trafności w klasę decyzyjną 3.1.6. Stopień błędnej nietrafności w klasę decyzyjną 3.1.7. Precyzja 3.1.8. Pełność 3.1.9. Wskaźnik F1 3.1.10. Dobór precyzji i pełności dla modelu 3.1.11. Krzywa ROC 3.2. Funkcje kosztu 3.2.1. Pojęcie funkcji kosztu 3.2.2. Błąd średniokwadratowy 3.2.3. Funkcja Hubera 3.2.4. Binarna entropia krzyżowa 3.2.5. Kategorialna entropia krzyżowa 3.2.6. Funkcja zawiasowa 3.3. Metody oceny wydajności modeli 3.3.1. Metoda "trenuj i testuj" 3.3.2. /t-krotna walidacja krzyżowa 3.3.3. Walidacja krzyżowa Monte Carlo 3.3.4. Wewnętrzna walidacja krzyżowa 3.3.5. Leave one out 3.3.6. Bootstrap 3.3.7.Bagging 3.3.8. Losowe lasy 3.4. Zjawisko przetrenowania i niedotrenowania modelu 3.4.1. Problem przetrenowania i niedotrenowania 3.4.2. Przyczyny niedotrenowania i przetrenowania modeli 3.4.3. Wykorzystanie podzbiorów walidacyjnych 3.4.4. Ewaluacja stopnia wytrenowania modelu na podstawie metody T&T 3.4.5. Obciążenie modelu 3.4.6. Wariancja modelu 3.5. Regularyzacja 3.5.1. Regularyzacja grzbietowa 3.5.2. Regularyzacja lasso 3.5.3. Regularyzacja ElasticNet 4. Wprowadzenie do sztucznych sieci neuronowych 4.1. Perceptron - podstawowa jednostka sieci neuronowej 4.2. Sztuczna sieć neuronowa 4.3. Funkcja aktywacji 4.3.1. Idea funkcji aktywacji 4.3.2. Popularne funkcje aktywacji 4.4. Metody optymalizacyjne 4.4.1. Metoda gradientu prostego 4.4.2. Momentum 4.4.3. Przyspieszony spadek wzdłuż gradientu 4.4.4. RMSProp 4.4.5. Adaptive moment estimation (Adam) 4.5. Uczenie sztucznej sieci neuronowej 4.6. Metody projektowania sieci neuronowych do klasyfikacji i regresji 5. Problemy uczenia głębokiego 5.1. Niestabilne gradienty 5.1.1. Metody inicjalizacji wag sieci neuronowych 5.1.2. Dobór funkcji aktywacji 5.1.3. Normalizacja wsadowa 5.1.4. Obcinanie gradientu 5.2. Regularyzacja 5.2.1. Wczesne zatrzymywanie 5.2.2. Dropout 5.3. Regularyzacja metodą Monte Carlo 5.4. Regularyzacja metodą max-norm 5.5. Metody projektowania sieci neuronowych odpornych na problemy uczenia głębokiego 6. Implementacja sieci neuronowych z zastosowaniem biblioteki TensorFlow 6.1. Keras 6.1.1. Instalacja w środowisku języka Python 6.1.2. Weryfikacja poprawności instalacji oraz wersji biblioteki 6.1.3. Wbudowane warstwy modeli sieci neuronowych 6.1.4. Podstawowe metody i atrybuty warstw 6.2. Tworzenie modeli z zastosowaniem interfejsu Keras 6.2.1. Sequential API 6.2.2. Functional API 6.2.3. Subclassing API 6.3. Wizualizacja, trening, ocena wydajności i zapisywanie modelu 6.4. Studium przypadku - budowa modelu decyzyjnego diagnozującego schorzenia układu krążenia 7. Wdrażanie wytrenowanych modeli w chmurze publicznej 7.1. Chmura publiczna 7.2. Usługi bezserwerowe 7.3. Google Cloud Platform 7.4. Wdrażanie modeli za pomocą Google Cloud Platform 7.5. Wykonywanie predykcji za pomocą wdrożonego modelu
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153465 N (1 egz.)
Książka
W koszyku
Sztuczna inteligencja od podstaw / Feliks Kurp. - Gliwice : Helion, copyright 2023. - 192 strony : ilustracje, wykresy ; 21 cm.
Bibliografia, netografia na stronach [189]-192.
Dla studentów kierunków informatyka, mechatronika, automatyka i robotyka.
Silna i słaba sztuczna inteligencja Przegląd klasycznych metod sztucznej inteligencji 3.1. Metody heurystyczne i metaheurystyczne 3.2. Sztuczne sieci neuronowe 3.3. Uczenie maszynowe 3.4. Przetwarzanie języka naturalnego 3.5. Algorytmy genetyczne i ewolucyjne 3.6. Algorytmy mrówkowe i inteligencja roju 3.7. Sztuczne życie 3.8. Sztuczna inteligencja w procesach wydobywania wiedzy z danych 3.9. Metody hybrydowe 3.10. Metody na pograniczu sztucznej inteligencji 3.11. Co dalej ze sztuczną inteligencją? Algorytmy genetyczne i ewolucyjne 4.1. Idea algorytmów genetycznych i ewolucyjnych 4.2. Klasyczny algorytm genetyczny 4.3. Operatory genetyczne 4.4. Przykłady operacji krzyżowania i mutacji 4.5. Przykłady wykorzystania algorytmu genetycznego 4.5.1. Szukanie ekstremum funkcji jednej zmiennej 4.5.2. Rozwiązanie problemu plecakowego 4.6. Strategie ewolucyjne 4.7. Eksploracja i eksploatacja 4.8. Porównanie metod selekcji 4.9. Metody skalowania funkcji dostosowania 4.10. Specjalne procedury reprodukcji 4.11. Programowanie genetyczne 4.12. Poszukiwanie ekstremum funkcji wielu zmiennych z dużą dokładnością . Algorytm mrówkowy 5.1. Główne różnice w zachowaniu „sztucznych mrówek” w porównaniu z rzeczywistymi 5.2. Podstawowe parametry wejściowe algorytmu mrówkowego 5.3. Wpływ ilości pozostawionego feromonu w punktach grafu 5.4. Wpływ liczby mrówek biorących udział w eksperymencie 5.5. Wpływ liczby punktów do wyboru przez mrówki 5.6. Wpływ metody wyboru kolejnego punktu grafu przez mrówkę 5.7. Stopień nasycenia feromonem poszczególnych punktów grafu po zakończeniu symulacji Sztuczne sieci neuronowe 6.1. Sieci neuronowe biologiczne 6.2. Budowa i działanie sztucznego neuronu 6.3. Funkcje aktywacji 6.4. Perceptron 6.5. Model neuronu sigmoidalnego 6.6. Dlaczego sieci neuronowe? 6.7. Topologie sieci neuronowych 6.7.1. Sieci jednokierunkowe 6.7.2. Algorytm wstecznej propagacji błędów 6.7.3. Sieci rekurencyjne 6.7.4. Sieci komórkowe samoorganizujące się 6.7.5. Sieci samoorganizujące z konkurencją 6.7.6. Wykorzystanie sieci samoorganizujących Uczenie maszynowe 7.1. Modele uczenia maszynowego 7.1.1. Uczenie nadzorowane (z nauczycielem) 7.1.2. Uczenie nienadzorowane (bez nauczyciela) 7.1.3. Uczenie ze wzmocnieniem 7.2. Głębokie uczenie się 7.3. Zautomatyzowane uczenie maszynowe (AutoML). Sztuczne życie 8.1. Definicja sztucznego życia 8.2. Model Lotki-Volterry 8.3. Autorski model pełzacze i bakterie 8.4. Symulacja choroby i leczenia organizmu Metody wykorzystujące zbiory rozmyte typu 1. 9.1. Podstawowe pojęcia teorii zbiorów rozmytych typu 1. 9.2. Operacje na zbiorach rozmytych 9.3. Relacje rozmyte 9.4. Przykłady zastosowań teorii zbiorów rozmytych 9.4.1. Rozmyta metoda Delphi 9.4.2. Rozmyta metoda PERT 9.5. Podejmowanie decyzji w otoczeniu rozmytym 9.5.1. Przydział dywidendy 9.5.2. Polityka zatrudnienia 9.6. Przybliżone wnioskowanie 9.6.1. Wnioskowanie w logice dwuwartościowej 9.6.2. Wnioskowanie w logice rozmytej 9.7. Sterowanie rozmyte Systemy ekspertowe. Metody wnioskowania 10.1. Definicja systemu ekspertowego 10.2. Ogólna budowa systemu ekspertowego 10.3. Drzewa decyzyjne 10.4. Metodologia wnioskowania 10.4.1. Wnioskowanie dedukcyjne a indukcyjne 10.4.2. Wnioskowanie dedukcyjne (udowodnienie celu) . 10.4.3. Wnioskowanie indukcyjne (od danych do celu) 10.4.4. Wnioskowanie mieszane Inteligentna analiza danych 11.1. Eksploracja danych 11.2. Analityczne przetwarzanie danych 11.3. Klasyczne metody eksploracji danych 11.4. Inteligentne metody eksploracji danych 11.5. Podstawowe własności analizy skupień 11.6. Metoda k-średnich (k-means) 11.7. Przykładowa aplikacja analizy danych metodą k-means Metody hybrydowe i koewolucyjne 12.1. Metody hybrydowe 12.1.1. Algorytmy ewolucyjne w projektowaniu sieci neuronowych 12.1.2. Algorytmy ewolucyjne w uczeniu wag sieci neuronowych 12.1.3. Algorytmy ewolucyjne do uczenia wag i określania architektury sieci neuronowych jednocześnie 12.1.4. Adaptacyjne rozmyte algorytmy ewolucyjne 12.1.5. Algorytmy ewolucyjne w projektowaniu systemów rozmytych 12.1.6. Dopasowanie funkcji przynależności za pomocą algorytmu genetycznego 12.2. Algorytmy koewolucyjne Przetwarzanie języka naturalnego 13.1. Języki naturalne i formalne 13.2. Historia rozwoju NLP 13.3. Poziomy analizy języka naturalnego 13.4. Analiza składniowa (syntaktyczna) 13.4.1. Gramatyki generatywne Chomsky’ego 13.5. Analiza semantyczna (znaczeniowa) 13.5.1. Podejście strukturalne do opisu semantyki 13.5.2. Symetryczna macierz współwystępowania słów 13.5.3. Reprezentacja wektorowa słowa (metody Word2vec i Doc2vec) 13.5.4. Podobieństwo cosinusowe wektorów słów 13.5.5. Modelowanie językowe BERT 13.6. Model GPT-3 13.7. Analiza sentymentu
Sygnatura czytelni BWEAiI: XII Ą 153
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153774 N (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153775 N (1 egz.)
Brak okładki
Książka
W koszyku
(Prace Naukowe Wydziału Inżynierii Środowiska Politechniki Wrocławskiej. Monografie, ISSN 2657-5035 ; 3)
Bibliografia, netografia na stronach 177-187.
Stan techniczny a awaryjność systemów wodociągowych Liczba i rodzaj awarii a wskaźnik intensywności u szkodzeń Niezawodność działania Ryzyko działania Renowacje przewodów Straty wody Modelowanie matematyczne w zastosowaniu do analizy awaryjności systemów wodociągowych Modele do opisu ilościowego awarii Modele do opisu ryzyka i niezawodności Modele do opisu strategii renowacji Charakterystyka wybranych metod regresyjnych i klasyfikacyjnych . Metoda wektorów nośnych Metoda K-najbliższych s ą s ia d ów Drzewa regresyjne, klasyfikacyjne i losowy las Charakterystyka wybranych do badań systemów wodociągowych Opis systemu wodociągowego w mieście X Opis systemu wodociągowego w mieście Y Ilościowe i jakościowe modelowanie awaryjności badanych sieci wodociągowych Metodyka modelowania - miasto X Metodyka modelowania - miasto Y Przewidywanie wskaźnika intensywności i klasyfikacja rodzajów uszkodzeń przewodów wodociągowych Zastosowanie metody wektorów nośnych Zastosowanie metody K-najbliższych sąsiadów Zastosowanie drzew regresyjnych i klasyfikacyjnych
Sygnatura czytelni BMW: II M 462(3) (nowy)
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. M 14804, M 14740 (2 egz.)
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 147906 N (1 egz.)
Książka
W koszyku
Na stronie tytułowej: Wydanie II, zawiera analizę metod wieloagentowych i zaawansowanych technik eksploracyjnych. Informacja o wydaniu dotyczy oryginału.
Czym jest uczenie przez wzmacnianie Zestaw narzedzi OpenAl Gym Uczenie głębokie przy użyciu biblioteki PyTorch Metoda entropii krzyżowej Uczenie tabelaryczne i równanie Bellmana Głębokie sieci Biblioteki wy zszego poziomu uczenia przez wzmacnianie Rozszerzenia sieci DQN Sposoby przyspieszenia metod uczenia przez wzmacnianie Inwestowanie na giełdzie za pomocą metod uczenia przez wzmacnianie Alternatywa - gradienty polityki Metoda aktor-krytyk Asynchroniczna wersja metody aktor-krytyk Trenowanie chatbotów z wykorzystaniem uczenia przez wzmacnianie Środowisko TextWorld Nawigacja w sieci Ciągła przestrzeń akcji Metody uczenia przez wzmacnianie w robotyce Regiony zaufania - PPO, TRPO, ACKTR i SAC Optymalizacja typu "czarna skrzynka" w przypadku uczenia przez wzmacnianie Zaawansowana eksploracja Alternatywa dla metody bezmodelowej - agent wspomagany wyobraźnią alphaGo Zero Użycie metod uczenia przez wzmacnianie w optymalizacji dyskretnej Metoda wieloagentowa
Sygnatura czytelni BWEAiI: XII Ą 150
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 152597 (1 egz.)
Książka
W koszyku
Wydanie 3. odnosi się do oryginału.
Indeks.
Pierwsze kroki z uczeniem maszynowym w Pythonie Różnice między uczeniem maszynowym a automatyką Nadmierne i niedostateczne dopasowanie modelu oraz kompromis między obciążeniem a wariancją Zapobieganie nadmiernemu dopasowaniu poprzez weryfikację krzyżową Zapobieganie nadmiernemu dopasowaniu za pomocą regularyzacji Zapobieganie nadmiernemu dopasowaniu poprzez selekcję cech i redukcję wymiarowości Wstępne przetwarzanie danych i inżynieria cech Wstępne przetwarzanie i eksploracja danych Inżynieria cech Łączenie modeli Głosowanie i uśrednianie Agregacja bootstrap Wzmacnianie Składowanie Instalacja i konfiguracja oprogramowania Przygotowanie Pythona i środowiska pracy Instalacja najważniejszych pakietów Pythona Wprowadzenie do pakietu TensorFlow 2 Tworzenie systemu rekomendacji filmów na bazie naiwnego klasyfikatora Bayesa Pierwsze kroki z klasyfikacją Klasyfikacja binarna Klasyfikacja wieloklasowa Klasyfikacja wieloetykietowa Naiwny klasyfikator Bayesa Twierdzenie Bayesa w przykładach Mechanizm naiwnego klasyfikatora Bayesa Implementacja naiwnego klasyfikatora Bayesa Implementacja od podstaw Implementacja z wykorzystaniem pakietu scikit-learn Budowanie systemu rekomendacyjnego na bazie klasyfikatora Bayesa Ocena jakości klasyfikacji Strojenie modeli poprzez weryfikację krzyżową Rozpoznawanie twarzy przy użyciu maszyny wektorów nośnych Określanie granic klas za pomocą maszyny wektorów nośnych Scenariusz 1. Określenie hiperpłaszczyzny rozdzielającej Scenariusz 2. Określenie optymalnej hiperpłaszczyzny rozdzielającej Scenariusz 3. Przetwarzanie punktów odstających Implementacja maszyny wektorów nośnych Scenariusz 4. Więcej niż dwie klasy Scenariusz 5. Rozwiązywanie nierozdzielnego liniowo problemu za pomocą jądra Wybór między jądrem liniowym a radialną funkcją bazową Klasyfikowanie zdjęć twarzy za pomocą maszyny wektorów nośnych Badanie zbioru zdjęć twarzy Tworzenie klasyfikatora obrazów opartego na maszynie wektorów nośnych Zwiększanie skuteczności klasyfikatora obrazów za pomocą analizy głównych składowych Klasyfikacja stanu płodu w kardiotokografii Prognozowanie kliknięć reklam internetowych przy użyciu algorytmów drzewiastych Wprowadzenie do prognozowania kliknięć reklam Wprowadzenie do dwóch typów danych: liczbowych i kategorialnych Badanie drzewa decyzyjnego od korzeni do liści Budowanie drzewa decyzyjnego Wskaźniki jakości podziału zbioru Implementacja drzewa decyzyjnego od podstaw Implementacja drzewa decyzyjnego za pomocą biblioteki scikit-learn Prognozowanie kliknięć reklam za pomocą drzewa decyzyjnego Gromadzenie drzew decyzyjnych: las losowy Gromadzenie drzew decyzyjnych: drzewa ze wzmocnieniem gradientowym Prognozowanie kliknięć reklam internetowych przy użyciu regresji logistycznej Klasyfikowanie danych z wykorzystaniem regresji logistycznej Wprowadzenie do funkcji logistycznej Przejście od funkcji logistycznej do regresji logistycznej Trening modelu opartego na regresji logistycznej Trening modelu opartego na regresji logistycznej z gradientem prostym Prognozowanie kliknięć reklam z wykorzystaniem regresji logistycznej z gradientem prostym Trening modelu opartego na regresji logistycznej ze stochastycznym gradientem prostym Trening modelu opartego na regresji logistycznej z regularyzacją Selekcja cech w regularyzacji L1 Trening modelu na dużym zbiorze danych z uczeniem online Klasyfikacja wieloklasowa Implementacja regresji logistycznej za pomocą pakietu TensorFlow Selekcja cech z wykorzystaniem lasu losowego Skalowanie modelu prognozującego do terabajtowych dzienników kliknięć Podstawy Apache Spark Komponenty Instalacja Uruchamianie i wdrażanie programów Programowanie z wykorzystywaniem modułu PySpark Trenowanie modelu na bardzo dużych zbiorach danych za pomocą narzędzia Apache Spark Załadowanie danych o kliknięciach reklam Podzielenie danych i umieszczenie ich w pamięci Zakodowanie "1 z n" cech kategorialnych Trening i testy modelu regresji logistycznej Inżynieria cech i wartości kategorialnych przy użyciu narzędzia Apache Spark Mieszanie cech kategorialnych Interakcja cech, czyli łączenie zmiennych Prognozowanie cen akcji za pomocą algorytmów regresji Krótkie wprowadzenie do giełdy i cen akcji Co to jest regresja? Pozyskiwanie cen akcji Pierwsze kroki z inżynierią cech Pozyskiwanie danych i generowanie cech Szacowanie za pomocą regresji liniowej Jak działa regresja liniowa? Implementacja regresji liniowej od podstaw Implementacja regresji liniowej z wykorzystaniem pakietu scikit-learn Implementacja regresji liniowej z wykorzystaniem pakietu TensorFlow Prognozowanie za pomocą regresyjnego drzewa decyzyjnego Przejście od drzewa klasyfikacyjnego do regresyjnego Implementacja regresyjnego drzewa decyzyjnego Implementacja lasu regresyjnego Prognozowanie za pomocą regresji wektorów nośnych Implementacja regresji wektorów nośnych Ocena jakości regresji Prognozowanie cen akcji za pomocą trzech algorytmów regresji Prognozowanie cen akcji za pomocą sieci neuronowych Demistyfikacja sieci neuronowych Pierwsze kroki z jednowarstwową siecią neuronową Funkcje aktywacji Propagacja wstecz Wprowadzanie kolejnych warstw do sieci neuronowej i uczenie głębokie Tworzenie sieci neuronowej Implementacja sieci neuronowej od podstaw Implementacja sieci neuronowej przy użyciu pakietu scikit-learn Implementacja sieci neuronowej przy użyciu pakietu TensorFlow Dobór właściwej funkcji aktywacji Zapobieganie nadmiernemu dopasowaniu sieci Dropout Wczesne zakończenie treningu Prognozowanie cen akcji za pomocą sieci neuronowej Trening prostej sieci neuronowej Dostrojenie parametrów sieci neuronowej. Badanie 20 grup dyskusyjnych przy użyciu technik analizy tekstu
Jak komputery rozumieją ludzi, czyli przetwarzanie języka naturalnego Czym jest przetwarzanie języka naturalnego? Historia przetwarzania języka naturalnego Zastosowania przetwarzania języka naturalnego Przegląd bibliotek Pythona i podstawy przetwarzania języka naturalnego Instalacja najważniejszych bibliotek Korpusy Tokenizacja Oznaczanie części mowy Rozpoznawanie jednostek nazwanych Stemming i lematyzacja Modelowanie semantyczne i tematyczne Pozyskiwanie danych z grup dyskusyjnych Badanie danych z grup dyskusyjnych Przetwarzanie cech danych tekstowych Zliczanie wystąpień wszystkich tokenów Wstępne przetwarzanie tekstu Usuwanie stop-słów Upraszczanie odmian Wizualizacja danych tekstowych z wykorzystaniem techniki t-SNE Co to jest redukcja wymiarowości? Redukcja wymiarowości przy użyciu techniki t-SNE Rozdział 10. Wyszukiwanie ukrytych tematów w grupach dyskusyjnych poprzez ich klastrowanie i modelowanie tematyczne Nauka bez wskazówek, czyli uczenie nienadzorowane Klastrowanie grup dyskusyjnych metodą k-średnich Jak działa klastrowanie metodą k-średnich? Implementacja klastrowania metodą k-średnich od podstaw Implementacja klastrowania metodą k-średnich z wykorzystaniem pakietu scikit-learn Dobór wartości k Klastrowanie danych z grup dyskusyjnych metodą k-średnich Odkrywanie ukrytych tematów grup dyskusyjnych Modelowanie tematyczne z wykorzystaniem nieujemnej faktoryzacji macierzy Modelowanie tematyczne z wykorzystaniem ukrytej alokacji Dirichleta Proces rozwiązywania problemów uczenia maszynowego Dobre praktyki przygotowywania danych Dobra praktyka nr 1. Dokładne poznanie celu projektu Dobra praktyka nr 2. Zbieranie wszystkich istotnych pól Dobra praktyka nr 3. Ujednolicenie danych Dobra praktyka nr 4. Opracowanie niekompletnych danych Dobra praktyka nr 5. Przechowywanie dużych ilości danych Dobre praktyki tworzenia zbioru treningowego Dobra praktyka nr 6. Oznaczanie cech kategorialnych liczbami Dobra praktyka nr 7. Rozważenie kodowania cech kategorialnych Dobra praktyka nr 8. Rozważenie selekcji cech i wybór odpowiedniej metody Dobra praktyka nr 9. Rozważenie redukcji wymiarowości i wybór odpowiedniej metody Dobra praktyka nr 10. Rozważenie normalizacji cech Dobra praktyka nr 11. Inżynieria cech na bazie wiedzy eksperckiej Dobra praktyka nr 12. Inżynieria cech bez wiedzy eksperckiej Dobra praktyka nr 13. Dokumentowanie procesu tworzenia cech Dobra praktyka nr 14. Wyodrębnianie cech z danych tekstowych Dobre praktyki trenowania, oceniania i wybierania modelu Dobra praktyka nr 15. Wybór odpowiedniego algorytmu początkowego Dobra praktyka nr 16. Zapobieganie nadmiernemu dopasowaniu Dobra praktyka nr 17. Diagnozowanie nadmiernego i niedostatecznego dopasowania Dobra praktyka nr 18. Modelowanie dużych zbiorów danych Dobre praktyki wdrażania i monitorowania modelu Dobra praktyka nr 19. Zapisywanie, ładowanie i wielokrotne stosowanie modelu Dobra praktyka nr 20. Monitorowanie skuteczności modelu Dobra praktyka nr 21. Regularne aktualizowanie modelu Kategoryzacja zdjęć odzieży przy użyciu konwolucyjnej sieci neuronowej Bloki konstrukcyjne konwolucyjnej sieci neuronowej Warstwa konwolucyjna Warstwa nieliniowa Warstwa redukująca Budowanie konwolucyjnej sieci neuronowej na potrzeby klasyfikacji Badanie zbioru zdjęć odzieży Klasyfikowanie zdjęć odzieży za pomocą konwolucyjnej sieci neuronowej Tworzenie sieci Trening sieci Wizualizacja filtrów konwolucyjnych Wzmacnianie konwolucyjnej sieci neuronowej poprzez uzupełnianie danych Odwracanie obrazów w poziomie i pionie Obracanie obrazów Przesuwanie obrazów Usprawnianie klasyfikatora obrazów poprzez uzupełnianie danych Prognozowanie sekwencji danych przy użyciu rekurencyjnej sieci neuronowej Wprowadzenie do uczenia sekwencyjnego Architektura rekurencyjnej sieci neuronowej na przykładzie Mechanizm rekurencyjny Sieć typu "wiele do jednego" Sieć typu "jedno do wielu" Sieć synchroniczna typu "wiele do wielu" Sieć niesynchroniczna typu "wiele do wielu" Trening rekurencyjnej sieci neuronowej Długoterminowe zależności i sieć LSTM Analiza recenzji filmowych za pomocą sieci neuronowej Analiza i wstępne przetworzenie recenzji Zbudowanie prostej sieci LSTM Poprawa skuteczności poprzez wprowadzenie dodatkowych warstw Pisanie nowej powieści "Wojna i pokój" za pomocą rekurencyjnej sieci neuronowej Pozyskanie i analiza danych treningowych Utworzenie zbioru treningowego dla generatora tekstu Utworzenie generatora tekstu Trening generatora tekstu Zaawansowana analiza języka przy użyciu modelu Transformer Architektura modelu Samouwaga . Podejmowanie decyzji w skomplikowanych warunkach z wykorzystaniem uczenia przez wzmacnianie Przygotowanie środowiska do uczenia przez wzmacnianie Instalacja biblioteki PyTorch Instalacja narzędzi OpenAI Gym Wprowadzenie do uczenia przez wzmacnianie z przykładami Komponenty uczenia przez wzmacnianie Sumaryczna nagroda Algorytmy uczenia przez wzmacnianie Problem FrozenLake i programowanie dynamiczne Utworzenie środowiska FrozenLake Rozwiązanie problemu przy użyciu algorytmu iteracji wartości Rozwiązanie problemu przy użyciu algorytmu iteracji polityki Metoda Monte Carlo uczenia przez wzmacnianie Utworzenie środowiska Blackjack Ocenianie polityki w metodzie Monte Carlo Sterowanie Monte Carlo z polityką Problem taksówkarza i algorytm Q-uczenia Utworzenie środowiska Taxi Implementacja algorytmu Q-uczenia
Sygnatura czytelni BWEAiI: XII Ł 214
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153052 (1 egz.)
Książka
W koszyku
W książce także ISBN oryginału.
Na stronie tytułowej również informacje o wydawcy oryginału - O'Reilly.
Część I. Tworzenie modeli 1. Wprowadzenie do biblioteki TensorFlow 2. Wprowadzenie do widzenia komputerowego 3. Bardziej zaawansowane zagadnienie: wykrywanie cech w obrazach 4. Korzystanie za pomocą biblioteki TensorFlow Datasets z publicznie dostępnych zbiorów danych 5. Wprowadzenie do przetwarzania języka naturalnego 6. Programowa analiza emocji za pomocą osadzeń 7. Użycie rekurencyjnych sieci neuronowych do przetwarzania języka naturalnego 8. Użycie biblioteki TensorFlow do generowania tekstu 9. Sekwencje i dane szeregów czasowych 10. Tworzenie modeli uczenia maszynowego do prognozowania sekwencji 11. Użycie metod konwolucyjnych i rekurencyjnych w modelowaniu sekwencji Część II. Używanie modeli 12. Wprowadzenie do TensorFlow Lite 13. Użycie TensorFlow Lite w systemie Android 14. Użycie TensorFlow Lite w systemie iOS 15. Wprowadzenie do TensorFlow.js 16. Rozwiązywanie problemów z zakresu widzenia komputerowego za pomocą biblioteki TensorFlow.js 17. Konwersja modeli z Pythona do JavaScriptu i ponowne ich użycie 18. Wykorzystanie uczenia transferowego w języku JavaScript 19. Wdrażanie modeli za pomocą usługi TensorFlow Serving 20. Sztuczna inteligencja a etyka, uczciwość i prywatność
Sygnatura czytelni BWEAiI: XII Ą 21
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 150989 N (1 egz.)
Książka
W koszyku
Bibliografia, netografia na stronach 211-217. Indeks.
0O sztucznej inteligencji JAROSŁAW CHUDZ1AK, TOMASZ ClAMBIN, PlOTB GAWRYSIAK, MIECZYSŁAW MuRASZKIEWICZ 2Przeszukiwanie i optymalizacja RAFAŁ BIEDRZYCKI, WIKTOR DASZCZUK, ROUERT NOWAK, PAWEŁ WAWRZYŃSKI 2.1Metody klasyczne w SI 2.2.1Metoda Newtona 2.2.2Metoda Levenberga 2.2.3Metoda gradientu prostego 2.2.4Metoda stochastycznego najszybszego spadku 2.3Przeszukiwanie przestrzeni stanów 2.3.1Strategie ślepe 2.3.2Strategie heurystyczne 2.3.3Gry dwuosobowe, algorytm MiniMax 2.4Algorytmy ewolucyjne i inne metaheurystyki 2.4.1Algorytm genetyczny 2.4.2Algorytm ewolucyjny 2.4.3Strategia ewolucyjna ES(1 + 1) 2.4.4Strategie ewolucyjne ES(/J + A), ES(/x, A) 2.4.5Inne metaheurystyki 3Uczenie maszynowe PAWEŁ CICHOSZ 3.1Systemy uczące się 3.1.1W stronę definicji uczenia się 3.1.2Rodzaje informacji trenującej 3.1.3Wprowadzenie do uczenia indukcyjnego 3.2Drzewa decyzyjne 3.2.1Drzewa decyzyjne jako reprezentacja modelu 3.2.2Zstępująca budowa drzewa 3.2.3Kryterium stopu 3.2.4Kryterium wyboru podziału 3.2.5Przycinanie drzewa 3.2.G Predykcja probabilistyczna 3.2.7Drzewa regresji 3.2.8Właściwości drzew decyzyjnych 3.3Modele liniowe 3.3.1Regresja liniowa 3.3.2Klasyfikacja liniowo-progowa 3.3.3Regresja logistyczna 3.3.4Obsługa atrybutów dyskretnych 3.3.5Klasyfikacja wieloklasowa 3.3.C Właściwości modeli liniowych 3.4Naiwny klasyfikator bayesowski 3.4.1Wnioskowanie bayesowskie 3.4.2Estymacja prawdopodobieństw 3.4.3Prawdopodobieństwa zerowe i prawie zerowe101 3.4.4Atrybuty ciągłe 3.4.5Predykcja 3.4.G Właściwości naiwnego klasyfikatora bayesowskiego 3.5Las losowy 3.5.1Modele zespołowe 3.5.2Tworzenie modeli bazowych 3.5.3Łączenie predykcji 3.5.4Budowa lasu losowego 3.5.5Predykcja lasu losowego 3.5.6Ocena predykcyjnej użyteczności atrybutów 3.5.7Właściwości lasów losowych 3.6Algorytm SVM 3.6.1Udoskonalenie klasyfikacji liniowo-progowej 3.6.2Maksymalizacja marginesu klasyfikacji 3.6.3Twardy margines 3.6.4Miękki margines 3.6.5Postać dualna 3.6.6Funkcje jądrowe 3.6.7Właściwości algorytmu SVM 3.7Ocena jakości modeli 3.7.1Miary jakości klasyfikacji 3.7.2Miary jakości regresji 3.7.3Procedury oceny 3.8Elementy teorii uczenia się 3.8.1Klasy pojęć i przestrzenie modeli 3.8.2PAC-nauczalność 3.8.3PAC-uczenie się dla algorytmów spójnych 3.8.4Uczenie agnostyczne 3.8.5 Wymiar Vapnika-Chervonenkisa 3.8.G Podsumowanie wniosków z teorii 4Sieci neuronowe KAROL PICZAK, PAWEŁ WAWRZYŃSKI 4.1Perceptron wielowarstwowy 4.1.1Model neuronu 4.1.2Perceptron dwuwarstwowy 4.1.3Własność uniwersalnej aproksymacji 4.1.4Perceptron wielowarstwowy 4.2Uczenie sieci neuronowej 4.2.1Uczenie jako rozwiązanie problemu optymalizacji 4.2.2Skalowanie wejść i wyjść, inicjacja wag 4.2.3Wsteczna propagacja gradientu 4.2.4Algorytmy optymalizacji 4.3Rekurencyjne sieci neuronowe 4.3.1Uczenie rekurencyjnej sieci neuronowej 4.3.2Sieci LSTM 4.3.3Sieci GRU 4.4Hiperparametry struktury i procesu uczenia sieci 4.4.1Funkcje aktywacji neuronów 4.4.2Inicjacja wag 4.4.3Normalizacja 4.4.4Dobór wielkości sieci 4.4.5Wczesne zatrzymanie uczenia 4.4.6Regularyzacja 4.4.7Inne techniki poprawy generalizacji 4.5Modele splotowe 4.5.1Operacja splotu 4.5.2Warstwy splotowe 4.5.3Złożone architektury splotowe 5O związkach etyki i sztucznej inteligencji KATARZYNA BUDZYŃSKA, MIECZYSŁAW MURASZKIEWICZ 5.1Wybrane dylematy i problemy 5.2Sztuczna inteligencja godna zaufania
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 152435 N (1 egz.)
Brak okładki
Książka
W koszyku
Machine learning : a probabilistic perspective / Kevin P. Murphy. - Cambridge, Massachusetts ; London : The MIT Press, copyright 2012. - XXIX, 1071 : ilustracje ; 24 cm.
(Adaptive Computation and Machine Learning Series)
Bibliografia strony 1019-1050. Indeks.
Machinę learning Supervised learning Unsupervised learning Discovering clusters Discovering latent factors Discovering graph structure Matrix completion Some basie concepts in machinę learning Parametric vs non-parametric models A simple non-parametric classifier: JsT-nearest neighbors The curse of dimensionality Parametric models for classification and regression Linear regression Logistic regression Oerfitting Model selection No free lunch theorem Probability Discrete random variables Fundamental rules Bayes' rule Independence and conditional independence Continuous random variables Quantiles Mean and variance Some common discrete distributions The binomial and Bernoulli distributions The multinomial and multinoulli distributions The Poisson distribution The empirical distribution Some common continuous distributions Gaussian (normal) distribution Degenerate pdf The Student's t distribution The Laplace distribution The gamma distribution The beta distribution Pareto distribution Joint probability distributions Covariance and correlation The multivariate Gaussian Multivariate Student t distribution Dirichlet distribution Transformations of random variables Linear transformations General transformations Central limit theorem Monte Carlo approximation Example: change of variables, the MC way Example: estimating n by Monte Carlo integration Accuracy of Monte Carlo approximation Information theory Entropy KL divergence Mutual information Generative models for discrete data Bayesian concept learning Likelihood Prior Posterior Posterior predictive distribution A more complex prior The beta-binomial model Posterior predictive distribution The Dirichlet-multinomial model Naive Bayes classifiers Model fitting Using the model for prediction The log-sum-exp trick Feature selection using mutual information Classifying documents using bag of words Gaussian models MLE for an MVN Maximum entropy derivation of the Gaussian Gaussian discriminant analysis Quadratic discriminant analysis (QDA) Linear discriminant analysis (LDA) Two-class LDA MLE for discriminant analysis Strategies for preventing overfitting Regularized LDA Diagonal LDA Nearest shrunken centroids classifier Inference in jointly Gaussian distributions Statement of the result Information form Linear Gaussian systems Statement of the result Digression: The Wishart distribution Inverse Wishart distribution Visualizing the Wishart distribution Inferring the parameters of an MVN Sensor fusion with unknown precisions Bayesian statistics Summarizing posterior distributions MAP estimation Credible intervals Inference for a difference in proportions Bayesian model selection Bayesian Occam's razor Computing the marginal likelihood (evidence) Bayes factors Jeffreys-Lindley paradox Priors Uninformative priors Jeffreys priors Robust priors Mixtures of conjugate priors Hierarchical Bayes modeling related cancer rates Empirical Bayes Example: beta-binomial model Example: Gaussian-Gaussian model Bayesian decision theory Bayes estimators for common loss functions The false positive vs false negative tradeoff Frequentist statistics Sampling distribution of an estimator Bootstrap Large sample theory for the MLE Freąuentist decision theory Bayes risk Minimax risk Admissible estimators Desirable properties of estimators Consistent estimators Unbiased estimators Minimum variance estimators The bias-variance tradeoff Empirical risk minimization Regularized risk minimization Structural risk minimization Estimating the risk using cross validation Upper bounding the risk using statistical learning theory Surrogate loss functions Pathologies of freąuentist statistics Counter-intuitive behavior of confidence intervals p-values considered harmful The likelihood principle Why isn't everyone a Bayesian? Linear regression Model specification Maximum likelihood estimation (least sąuares) Derivation of the MLE Geometrie interpretation Robust linear regression Ridge regression Basic idea Numerically stable computation Connection with PCA Regularization effects of big data Bayesian linear regression Computing the posterior Computing the posterior predictive Bayesian inference when
Logistic regression Model specification Model fitting Steepest descent Newtohs method Iteratively reweighted least sąuares (IRLS) Quasi-Newton (variable metric) methods Multi-class logistic regression Bayesian logistic regression Laplace approximation Derivation of the Bayesian information criterion (BIC) Gaussian approximation for logistic regression Approximating the posterior predictive Residual analysis (outlier detection) Online learning and stochastic optimization Online learning and regret minimization Stochastic optimization and risk minimization The LMS algorithm The perceptron algorithm A Bayesian view Generative vs discriminative classihers Pros and cons of each approach Dealing with missing data Fisher's linear discriminant analysis (FLDA) Generalized linear models and the exponential family The exponential family Log partition function MLE for the exponential family Bayes for the exponential family Maximum entropy derivation of the exponential family Generalized linear models (GLMs) ML and MAP estimation Bayesian inference Probit regression ML/MAP estimation using gradient-based optimization Latent variable interpretation Ordinal probit regression Multinomial probit models Multi-task learning Hierarchical Bayes for multi-task learning Application to personalized email spam filtering Application to domain adaptation Other kinds of prior Generalized linear mixed models Example: semi-parametric GLMMs for medical data Computational issues Learning to rank The pointwise approach The pairwise approach The listwise approach Loss functions for ranking Directed graphical models (Bayes nets) Chain rule Conditional independence Graphical models Graph terminology Directed graphical models Naive Bayes classihers Markov and hidden Markov models Medical diagnosis Genetic linkage analysis Directed Gaussian graphical models Inference Learning Platę notation Learning from complete data Learning with missing and/or latent variables Conditional independence properties of DGMs d-separation and the Bayes Bali algorithm (global Markov properties) Other Markov properties of DGMs Markov blanket and fuli conditionals Influence (decision) diagrams U Mixture models and the EM algorithm Latent variable models Mixture models Mixtures of Gaussians Mixture of multinoullis Using mixture models for clustering Mixtures of experts Parameter estimation for mbrture models Unidentifiability Computing a MAP estimate is non-convex The EM algorithm Basic idea EM for GMMs EM for mixture of experts EM for DGMs with hidden variables EM for the Student distribution EM for probit regression Theoretical basis for EM Online EM Other EM variants Model selection for latent variable models Model selection for probabilistic models Model selection for non-probabilistic methods Fitting models with missing data EM for the MLE of an MVN with missing data 1Latent linear models Factor analysis FA is a Iow rank parameterization of an MVN Inference of the latent factors Unidentifiability Mixtures of factor analysers EM for factor analysis models Fitting FA models with missing data Principal components analysis (PCA) Classical PCA: statement of the theorem Proof Singular value decomposition (SVD) Probabilistic PCA EM algorithm for PCA Choosing the number of latent dimensions Model selection for FA/PPCA Model selection for PCA PCA for categorical data PCA for paired and multi-view data Supervised PCA (latent factor regression) Partial least sąuares Canonical correlation analysis Independent Component Analysis (ICA) Maximum likelihood estimation The FastlCA algorithm Using EM 416 Other estimation principles Sparse linear models Bayesian variable selection The spike and slab model From the Bernoulli-Gaussian model to £q regularization Algorithms regularization: basics Why does i\ regularization yield sparse solutions? Optimality conditions for lasso Comparison of least sąuares, lasso, ridge and subset selection Regularization path Model selection Bayesian inference for linear models with Laplace priors regularization: algorithms Coordinate descent LARS and other homotopy methods Prcorimal and gradient projection methods EM for lasso regularization: extensions Group lasso Fused lasso Elastic net (ridge and lasso combined) Non-convex regularizers Bridge regression Hierarchical adaptive lasso Other hierarchical priors Automatic relevance determination (ARD)/sparse Bayesian learning (SBL) ARD for linear regression Whence sparsity? Connection to MAP estimation Algorithms for ARD ARD for logistic regression Sparse coding Learning a sparse coding dictionary Results of dictionary learning from image patches Compressed sensing Image inpainting and denoising Kernel functions RBF kernels Kernels for comparing documents Mercer (positive definite) kernels Linear kernels Matern kernels String kernels Pyramid match kernels Kernels derived from probabilistic generative models Using kernels inside GLMs Kernel machines LlVMs, RVMs, and other sparse vector machines The kernel trick Kernelized nearest neighbor classification Kernelized K-medoids clustering Kernelized ridge regression Kernel PCA Support vector machines (SVMs) SVMs for regression SVMs for classification Choosing C A probabilistic interpretation of SVMs Comparison of discriminative kernel methods Kernels for building generative models Smoothing kernels Kernel density estimation (KDE) From KDE to KNN Kernel regression Locally weighted regression
Gaussian processes GPs for regression Predictions using noise-free observations Predictions using noisy observations Effect of the kernel parameters Estimating the kernel parameters Computational and numerical issues Semi-parametric GPs GPs meet GLMs Binary classification Multi-class classification GPs for Poisson regression Connection with other methods Linear models compared to GPs Linear smoothers compared to GPs SVMs compared to GPs L1VM and RVMs compared to GPs Neural networks compared to GPs Smoothing splines compared to GPs RKHS methods compared to GPs GP latent variable model Approximation methods for large datasets 544 Adaptive basis function models Classification and regression trees (CART) Growing a tree 547Pruning a tree Pros and cons of trees Random forests CART compared to hierarchical mhtture of experts Generalized additive models Backntting Computational efficiency Multivariate adaptive regression splines (MARS) Boosting Forward stagewise additive modeling L2boosting AdaBoost LogitBoost Boosting as functional gradient descent Sparse boosting Multivariate adaptive regression trees (MART) Why does boosting work so well? A Bayesian view Feedforward neural networks (multilayer perceptrons) 565Convolutional neural networks Other kinds of neural networks A brief history of the field The backpropagation algorithm Identifiability Regularization Bayesian inference Ensemble learning Stacking Error-correcting output codes Ensemble learning is not equivalent to Bayes model averaging Experimental comparison Low-dimensional features High-dimensional features Interpreting black-box models Markov and hidden Markou models Markov models Transition matrix Application: Language modeling Stationary distribution of a Markov chain Application: Google's PageRank algorithm for web page ranking Hidden Markov models Applications of HMMs Inference in HMMs Types of inference problems for temporal models The forwards algorithm The forwards-backwards algorithm The Viterbi algorithm Forwards filtering, backwards sampling Learning for HMMs Training with fully observed data EM for HMMs (the Baum-Welch algorithm) Bayesian methods for "fitting" HMMs * Discriminative training Model selection Generalizations of HMMs Variable duration (semi-Markov) HMMs Hierarchical HMMs Input-output HMMs Auto-regressive and buried HMMs Factorial HMM Coupled HMM and the influence model Dynamie Bayesian networks (DBNs) State space models Applications of SSMs SSMs for object tracking Robotic SLAM Online parameter learning using recursive least sąuares SSM for time series forecasting Inference in LG-SSM The Kalman filtering algorithm The Kalman smoothing algorithm Learning for LG-SSM Identifiability and numerical stability Training with fully observed data EM for LG-SSM Subspace methods Bayesian methods for "fitting" LG-SSMs Approximate online inference for non-linear, non-Gaussian SSMs Extended Kalman filter (EKF) Unscented Kalman filter (UKF) Assumed density filtering (ADF) Hybrid discrete/continuous SSMs Inference Application: data association and multi-target tracking Application: fault diagnosis Application: econometric forecasting Undirected graphical models (Markov random fields) Conditional independence properties of UGMs An undirected alternative to d-separation Comparing directed and undirected graphical models Parameterization of MRFs The Hammersley-Clifford theorem Representing potential functions Ising model Hopfield networks Potts model Gaussian MRFs Markov logie networks Learning Training maxent models using gradient method Training partially observed maxent models Approximate methods for computing the MLEs of MRFs Pseudo likelihood Stochastic maximum likelihood Feature induction for maxent models Iterative proportional fitting (IPF) Conditional random fields (CRFs) Chain-structured CRFs, MEMMs and the label-bias problem Structural SVMs SSVMs: a probabilistic view SSVMs: a non-probabilistic view Cutting piane methods for fitting SSVMs Online algorithms for fitting SSVMs Latent structural SVMs Exact inference for graphical models Belief propagation for trees Serial protocol Parallel protocol Gaussian belief propagation * Other BP variants The variable elimination algorithm The generalized distributive law Computational complexity of VE A weakness of VE The junction tree algorithm Creating a junction tree Message passing on a junction tree Computational complexity of JTA generalizations * 728 20.5 Computational intractability of exact inference in the worst case 728 20.5.1 Approximate inference Variational inference Variational inference Alternative interpretations of the variational objective Forward or reverse KL? The mean field method Derivation of the mean field update eąuations Example: mean field for the Ising model Structured mean field Example: factorial HMM Variational Bayes Example: VB for a univariate Gaussian Example: VB for linear regression Variational Bayes EM Example: VBEM for mixtures of Gaussians *Variational message passing and VIBES Local variational bounds Motivating applications Bohning's ąuadratic bound to the log-sum-exp function Bounds for the sigmoid function Other bounds and approximations to the log-sum-exp function Variational inference based on upper bounds More mriationał inference Loopy belief propagation: algorithmic issues LBP on pairwise models LBP on a factor graph Convergence Accuracy of LBP Other speedup tricks for LBP Loopy belief propagation: theoretical issues UGMs represented in exponential family form The marginal polytope Exact inference as a variational optimization problem Mean field as a variational optimization problem LBP as a variational optimization problem Loopy BP vs mean field Extensions of belief propagation Generalized belief propagation Convex belief propagation Expectation propagation EP as a variational inference problem Optimizing the EP objective using moment matching EP for the clutter problem LBP is a special case of EP Ranking players using TrueSkill Other applications of EP MAP state estimation Linear programming relaxation Max-product belief propagation Graphcuts Experimental comparison of graphcuts and BP Dual decomposition Monte Carlo inference Sampling from standard distributions Using the cdf Sampling from a Gaussian (Box-Muller method) Rejection sampling Application to Bayesian statistics Adaptive rejection sampling Rejection sampling in high dimensions Importance sampling Handling unnormalized distributions Importance sampling for a DGM: likelihood weighting Sampling importance resampling (SIR) Particie filtering Seąuential importance sampling The degeneracy problem The resampling step The proposal distribution Application: robot localization Application: visual object tracking Application: time series forecasting Rao-Blackwellised particie filtering (RBPF) RBPF for switching LG-SSMs Application: tracking a maneuvering target Application: Fast SLAM 24 Markov chain Monte Carlo (MCMC) inference Gibbs sampling Example: Gibbs sampling for the Ising model Example: Gibbs sampling for inferring the parameters of a GMM Collapsed Gibbs sampling Gibbs sampling for hierarchical GLMs BUGS and JAGS The Imputation Posterior (IP) algorithm Blocking Gibbs sampling Metropolis Hastings algorithm Gibbs sampling is a special case of MH Proposal distributions Adaptive MCMC Initialization and mode hopping Why MH works Reversible jump (trans-dimensional) MCMC Speed and accuracy of MCMC The burn-in phase Mixing rates of Markov chains Practical convergence diagnostics Accuracy of MCMC Auxiliary variable MCMC Auxiliary variable sampling for logistic regression Slice sampling Swendsen Wang Hybrid/Hamiltonian MCMC Annealing methods Simulated annealing Annealed importance sampling Parallel tempering Approximating the marginal likelihood The candidate method Harmonie mean estimate Annealed importance sampling Clustering Measuring (dis)similarity Evaluating the output of clustering methods Dirichlet process mbriure models From finite to infinite mbeture models The Dirichlet process Applying Dirichlet processes to mixture modeling Fitting a DP mixture model Affinity propagation Spectral clustering Graph Laplacian Normalized graph Laplacian Hierarchical clustering Agglomerative clustering Divisive clustering Choosing the number of clusters Bayesian hierarchical clustering Clustering datapoints and features Biclustering Multi-view clustering Graphical model structure learning Structure learning for knowledge discovery Relevance networks Dependency networks Learning tree structures Directed or undirected tree? Chow-Liu algorithm for finding the ML tree structure 9Finding the MAP forest Mbrtures of trees Learning DAG structures Markov equivalence Exact structural inference Scaling up to larger graphs Learning DAG structure with latent variables Approximating the marginal likelihood when we have missing data Structural EM Discovering hidden variables Case study: Googles Rephil Structural eąuation models Learning causal DAGs Causal interpretation of DAGs Using causal DAGs to resolve Simpsohs paradox Learning causal DAG structures Learning undirected Gaussian graphical models MLE for a GGM Graphical lasso Bayesian inference for GGM structure Handling non-Gaussian data using copulas Learning undirected discrete graphical models Graphical lasso for MRFs/CRFs Thin junction trees Latent variable models for discrete data Distributed state LVMs for discrete data Mbrture models Exponential family PCA LDA and mPCA GaP model and non-negative matrix factorization Latent Dirichlet allocation (LDA) Unsupervised discovery of topics Quantitatively evaluating LDA as a language model Fitting using (collapsed) Gibbs sampling Fitting using batch variational inference Fitting using online variational inference Determining the number of topics Correlated topie model Dynamie topie model LDA-HMM Supervised LDA LVMs for graph-structured data Stochastic błock model Mixed membership stochastic błock model Relational topie model LVMs for relational data Infinite relational model Probabilistic matrix factorization for collaborative filtering Restricted Boltzmann machines (RBMs) Varieties of RBMs Learning RBMs Applications of RBMs Deep learning Deep generative models Deep directed networks Deep Boltzmann machines Deep belief networks Greedy layer-wise learning of DBNs Deep neural networks Deep multi-layer perceptrons Deep auto-encoders Stacked denoising auto-encoders Applications of deep networks Handwritten digit classification using DBNs Data visualization and feature discovery using deep auto-encoders Information retrieval using deep auto-encoders (semantic hashing) Learning audio features using ld convolutional DBNs Learning image features using 2d convolutional DBNs
Sygnatura czytelni BMW: XIII 90 (nowy)
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. MZ 394 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności