Uczenie maszynowe
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(63)
Forma i typ
Książki
(61)
Publikacje fachowe
(33)
Publikacje dydaktyczne
(18)
Publikacje naukowe
(16)
Artykuły
(2)
Poradniki i przewodniki
(2)
Publikacje popularnonaukowe
(1)
Dostępność
tylko na miejscu
(42)
dostępne
(24)
nieokreślona
(2)
Placówka
Wypożyczalnia
(24)
Biblioteka Międzywydziałowa
(4)
Biblioteka WEiZ
(1)
Egzemplarz lektoryjny
(1)
Magazyn
(1)
Biblioteka WEAiI
(37)
Autor
Sawka Krzysztof
(6)
Grażyński Andrzej
(3)
Géron Aurélien
(3)
Matuk Konrad
(3)
Janusz Jacek
(2)
Norvig Peter
(2)
Russell Stuart J. (1962- )
(2)
Szeliga Marcin
(2)
Walczak Tomasz
(2)
Walczak Tomasz (tłumacz)
(2)
Watrak Andrzej
(2)
Wawrzyński Paweł (1978- )
(2)
Adamczyk-Karwowska Agnieszka
(1)
Albon Chris
(1)
Albrzykowski Leszek
(1)
Ameisen Emmanuel
(1)
Barth Antje
(1)
Bhargava Aditya Y
(1)
Bombik Wojciech
(1)
Bonaccorso Giuseppe (informatyka)
(1)
Brzęcki Mariusz
(1)
Chapple Mike (1975- )
(1)
Chollet François
(1)
Chounlamany-Turalska Natalia
(1)
Cichosz Paweł
(1)
Conway Drew
(1)
Deisenroth Marc Peter
(1)
Esposito Dino
(1)
Esposito Francesco
(1)
Faisal A. Aldo
(1)
Fandango Armando
(1)
Fenner Mark E
(1)
Fenrich Wojciech
(1)
Fregly Chris
(1)
Gift Noah
(1)
Goldmeier Jordan
(1)
Grus Joel
(1)
Gutman Alex J
(1)
Gutowski Maksymilian
(1)
Górczyński Robert
(1)
Hearty John
(1)
Hejducka Paulina
(1)
Hubisz Jakub
(1)
Hulten Geoff
(1)
Hurbans Rishal
(1)
Jain Ankit
(1)
Kamiński Filip
(1)
Kamiński Filip (informatyk)
(1)
Kamiński Filip (informatyka)
(1)
Kanber Burak
(1)
Kapoor Amita
(1)
Kirk Matthew
(1)
Kneusel Ronald
(1)
Kordos Mirosław
(1)
Koronacki Jacek
(1)
Krawiec Krzysztof
(1)
Krechowicz Maria
(1)
Krzywicki Tomasz (informatyk)
(1)
Krzyśko Mirosław
(1)
Kurp Feliks
(1)
Kutyłowska Małgorzata
(1)
Kwiatkowski Przemysław (informatyk)
(1)
Lapan Maxim
(1)
Liu Yuxi
(1)
Mirjalili Vahid
(1)
Moroney Laurence
(1)
Muraszkiewicz Mieczysław (1948- )
(1)
Murphy Kevin P. (1970- )
(1)
Natingga Dávid
(1)
Niedźwiedź Jakub
(1)
Nielsen Aileen
(1)
Nowak Robert (informatyk)
(1)
Nwanganga Frederick Chukwuka
(1)
Ong Cheng Soon
(1)
Osinga Douwe
(1)
Osiński Jędrzej (informatyk)
(1)
Osowski Stanisław (1948- )
(1)
Piwko Łukasz
(1)
Ponteves Hadelin de
(1)
Prajsner Piotr
(1)
Przegalińska-Skierkowska Aleksandra (1982- )
(1)
Rajani Renu
(1)
Rajca Piotr
(1)
Rajca Piotr (1970- )
(1)
Raschka Sebastian
(1)
Ray Archana Tikayat
(1)
Sagalara Leszek
(1)
Sikorski Witold (informatyk)
(1)
Spurek Przemysław (matematyk)
(1)
Struski Łukasz
(1)
Szeremiota Przemysław
(1)
Szmurło Robert
(1)
Tabor Jacek (matematyk)
(1)
Topolski Mariusz
(1)
Unold Olgierd
(1)
Weidman Seth
(1)
Werner Grzegorz
(1)
White John Myles
(1)
White Ryan T
(1)
Wieczorek Tadeusz (1951- )
(1)
Rok wydania
2020 - 2024
(35)
2010 - 2019
(23)
2000 - 2009
(5)
Okres powstania dzieła
2001-
(53)
Kraj wydania
Polska
(62)
Stany Zjednoczone
(1)
Język
polski
(61)
angielski
(2)
Odbiorca
Szkoły wyższe
(10)
Programiści
(9)
Informatycy
(6)
Analitycy danych
(4)
Biegli rewidenci
(1)
Inwestorzy indywidualni
(1)
Inwestorzy instytucjonalni
(1)
Inżynierowie oprogramowania
(1)
Księgowi
(1)
Menedżerowie
(1)
Przedsiębiorcy
(1)
Urzędnicy
(1)
Temat
Budownictwo
(2412)
Zarządzanie
(2038)
Matematyka
(1930)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1790)
Uczenie maszynowe
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1012)
Turystyka
(953)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(932)
Automatyka
(916)
Język angielski
(873)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(760)
Technika
(743)
Konstrukcje budowlane
(727)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Piłka nożna
(690)
Transport
(673)
Elektroenergetyka
(667)
Architektura
(637)
Marketing
(637)
Innowacje
(619)
Naprężenia i odkształcenia
(613)
OZE
(606)
Programowanie (informatyka)
(590)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(567)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Materiałoznawstwo
(517)
Produkcja
(517)
Symulacja
(515)
Inwestycje
(508)
Praca
(503)
Analiza matematyczna
(495)
Zarządzanie jakością
(495)
Zarządzanie zasobami ludzkimi (HRM)
(495)
Dzieci
(489)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(468)
Szkolnictwo wyższe
(468)
Przedsiębiorstwo
(467)
Psychologia
(467)
Modele matematyczne
(465)
Internet
(464)
Metale
(462)
Nauka
(456)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(429)
Mechanika budowli
(425)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(382)
Banki
(378)
BHP
(375)
Rachunkowość zarządcza
(374)
Temat: czas
1901-2000
(1)
1945-1989
(1)
1989-2000
(1)
2001-
(1)
Temat: miejsce
Polska
(1)
Stany Zjednoczone (USA)
(1)
Gatunek
Podręcznik
(39)
Opracowanie
(6)
Monografia
(4)
Poradnik
(4)
Artykuł z czasopisma fachowego
(1)
Podręczniki akademickie
(1)
Praca zbiorowa
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(50)
Matematyka
(10)
Gospodarka, ekonomia, finanse
(2)
Inżynieria i technika
(2)
Zarządzanie i marketing
(1)
Kartoteka zagadnieniowa
Organizacja, Zarządzanie i Marketing
(2)
63 wyniki Filtruj
Książka
W koszyku
Deep Learning : receptury / Douwe Osinga ; tłumaczenie Piotr Rajca. - Gliwice : Wydawnictwo Helion, copyright 2019. - 238 stron : ilustarcje ; 24 cm.
Tytuł oryginału: Deep Learning Cookbook : Practical Recipies to Get Started Quickly.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Na książce także ISBN oryginału: 9781491995846
Indeks.
1. Narzędzia i techniki 15 1.1. Typy sieci neuronowych 15 1.2. Pozyskiwanie danych 25 1.3. Wstępne przetwarzanie danych 31 2. Aby ruszyć z miejsca 39 2.1. Jak stwierdzić, że utknęliśmy? 39 2.2. Poprawianie błędów czasu wykonania 40 2.3. Sprawdzanie wyników pośrednich 42 2.4. Wybór odpowiedniej funkcji aktywacji (w warstwie wyjściowej) 43 2.5. Regularyzacja i porzucanie 45 2.6. Struktura sieci, wielkość wsadów i tempo uczenia 46 3. Obliczanie podobieństwa słów przy użyciu wektorów właściwościowych 49 3.1. Stosowanie nauczonych modeli wektorów właściwościowych do określania podobieństw między wyrazami 50 3.2. Operacje matematyczne z użyciem Word2vec 52 3.3. Wizualizacja wektorów właściwościowych 54 3.4. Znajdowanie klas obiektów z wykorzystaniem wektorów właściwościowych 55 3.5. Obliczanie odległości semantycznych w klasach 59 3.6. Wizualizacja danych kraju na mapie 60 4. Tworzenie systemu rekomendacji na podstawie odnośników wychodzących z Wikipedii 63 4.1. Pozyskiwanie danych 63 4.2. Uczenie wektorów właściwościowych filmów 67 4.3. Tworzenie systemu rekomendacji filmów 70 4.4. Prognozowanie prostych właściwości filmu 71 5. Generowanie tekstu wzorowanego na przykładach 73 5.1. Pobieranie ogólnie dostępnych tekstów 73 5.2. Generowanie tekstów przypominających dzieła Szekspira 74 5.3. Pisanie kodu z wykorzystaniem rekurencyjnej sieci neuronowej 77 5.4. Kontrolowanie temperatury wyników 79 5.5. Wizualizacja aktywacji rekurencyjnych sieci neuronowych 81 6. Dopasowywanie pytań 83 6.1. Pobieranie danych ze Stack Exchange 83 6.2. Badanie danych przy użyciu biblioteki Pandas 85 6.3. Stosowanie Keras do określania cech tekstu 86 6.4. Tworzenie modelu pytanie - odpowiedź 87 6.5. Uczenie modelu z użyciem Pandas 88 6.6. Sprawdzanie podobieństw 90 7. Sugerowanie emoji 93 7.1. Tworzenie prostego klasyfikatora nastawienia 93 7.2. Badanie prostego klasyfikatora 96 7.3. Stosowanie sieci konwolucyjnych do analizy nastawienia 97 7.4. Gromadzenie danych z Twittera 99 7.5. Prosty mechanizm prognozowania emoji 100 7.6. Porzucanie i wiele okien 102 7.7. Tworzenie modelu operującego na słowach 103 7.8. Tworzenie własnych wektorów właściwościowych 105 7.9. Stosowanie rekurencyjnych sieci neuronowych do klasyfikacji 107 7.10. Wizualizacja (nie)zgody 108 7.11. Łączenie modeli 111 8. Odwzorowywanie sekwencji na sekwencje 113 8.1. Uczenie prostego modelu typu sekwencja na sekwencję 113 8.2. Wyodrębnianie dialogów z tekstów 115 8.3. Obsługa otwartego słownika 116 8.4. Uczenie chatbota z użyciem frameworka seq2seq 118 9. Stosowanie nauczonej już sieci do rozpoznawania obrazów 123 9.1. Wczytywanie nauczonej sieci neuronowej 124 9.2. Wstępne przetwarzanie obrazów 124 9.3. Przeprowadzanie wnioskowania na obrazach 126 9.4. Stosowanie API serwisu Flickr do gromadzenia zdjęć z etykietami 127 9.5. Tworzenie klasyfikatora, który potrafi odróżniać koty od psów 128 9.6. Poprawianie wyników wyszukiwania 130 9.7. Ponowne uczenie sieci rozpoznającej obrazy 132 10. Tworzenie usługi odwrotnego wyszukiwania obrazów 135 10.1. Pozyskiwanie obrazów z Wikipedii 135 10.2. Rzutowanie obrazów na przestrzeń n-wymiarową 138 10.3. Znajdowanie najbliższych sąsiadów w przestrzeni n-wymiarowej 139 10.4. Badanie lokalnych sąsiedztw w wektorach właściwościowych 140 11. Wykrywanie wielu obrazów 143 11.1. Wykrywanie wielu obrazów przy użyciu nauczonego klasyfikatora 143 11.2. Stosowanie sieci Faster R-CNN do wykrywania obrazów 147 11.3. Stosowanie Faster R-CNN na własnych obrazach 149 12. Styl obrazu 153 12.1. Wizualizacja aktywacji sieci CNN 153 12.2. Oktawy i skalowanie 157 12.3. Wizualizacja tego, co sieć neuronowa prawie widzi 158 12.4. Jak uchwycić styl obrazu? 161 12.5. Poprawianie funkcji straty w celu zwiększenia koherencji obrazu 164 12.6. Przenoszenie stylu na inny obraz 166 12.7. Interpolacja stylu 167 13. Generowanie obrazów przy użyciu autoenkoderów 169 13.1. Importowanie rysunków ze zbioru Google Quick Draw 170 13.2. Tworzenie autoenkodera dla obrazów 171 13.3. Wizualizacja wyników autoenkodera 173 13.4. Próbkowanie obrazów z właściwego rozkładu 175 13.5. Wizualizacja przestrzeni autoenkodera wariacyjnego 178 13.6. Warunkowe autoenkodery wariacyjne 179 14. Generowanie ikon przy użyciu głębokich sieci neuronowych 183 14.1. Zdobywanie ikon do uczenia sieci 184 14.2. Konwertowanie ikon na tensory 186 14.3. Stosowanie autoenkodera wariacyjnego do generowania ikon 187 14.4. Stosowanie techniki rozszerzania danych do poprawy wydajności autoenkodera 190 14.5. Tworzenie sieci GAN 191 14.6. Uczenie sieci GAN 193 14.7. Pokazywanie ikon generowanych przez sieć GAN 194 14.8. Kodowanie ikon jako instrukcji rysowniczych 196 14.9. Uczenie sieci rekurencyjnych rysowania ikon 197 14.10. Generowanie ikon przy użyciu sieci rekurencyjnych 199 15. Muzyka a uczenie głębokie 201 15.1. Tworzenie zbioru uczącego na potrzeby klasyfikowania muzyki 202 15.2. Uczenie detektora gatunków muzyki 204 15.3. Wizualizacja pomyłek 206 15.4. Indeksowanie istniejącej muzyki 207 15.5. Konfiguracja API dostępu do serwisu Spotify 209 15.6. Zbieranie list odtwarzania i utworów ze Spotify 210 15.7. Uczenie systemu sugerowania muzyki 213 15.8. Sugerowanie muzyki przy wykorzystaniu modelu Word2vec 214 16. Przygotowywanie systemów uczenia maszynowego do zastosowań produkcyjnych 217 16.1. Użycie algorytmu najbliższych sąsiadów scikit-learn do obsługi wektorów właściwościowych 218 16.2. Stosowanie Postgresa do przechowywania wektorów właściwościowych 219 16.3. Zapisywanie i przeszukiwanie wektorów właściwościowych przechowywanych w bazie Postgres 220 16.4. Przechowywanie modeli wysokowymiarowych w Postgresie 221 16.5. Pisanie mikroserwisów w języku Python 222 16.6. Wdrażanie modelu Keras z użyciem mikroserwisu 224 16.7. Wywoływanie mikroserwisu z poziomu frameworka internetowego 225 16.8. Modele seq2seq TensorFlow 226 16.9. Uruchamianie modeli uczenia głębokiego w przeglądarkach 227 16.10. Wykonywanie modeli Keras przy użyciu serwera TensorFlow 230 16.11. Stosowanie modeli Keras z poziomu iOS-a 232
Sygnatura czytelni BWEAiI: XII Ł 163
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148497 N (1 egz.)
Książka
W koszyku
Indeks.
SZTUCZNA INTELIGENCJA: SFPRMUŁOWANIE RODEM Z SCIENCE FICTION, KTÓRE ZMIENIŁO ŚWIAT Czym jest sztuczna inteligencja? Silna sztuczna inteligencja Test Turinga Algorytm czy heurystyka? „Chcę zagrać w grę" Czy już to osiągnęliśmy? SIECI NEURONOWE - BURZA MÓZGÓW WEWNĄTRZ KOMPUTERA Wszystko jest liczbą Sekrety sztucznego mózgu Burza mózgów Warstwa i łgarstwa Sztuczne rozumowanie Głęboka myśl AlLGORYTMY GENETYCZNE: OD WYSP GALAPAGOS DO SYMFONII SKOMPONOWANEJ KOMPUTEROWO Ewolucja przyspieszona do milisekund Sztuczne DNA Narodziny życia Selekcja naturalna Krzyżowanie: nowe pokolenie buduje nowy świat X-meni są wśród nas Ewolucja rozwiązania Ewolucja w IT METODA MONTE CARLO: NIEOCZEKIWANE KORZYŚCI Z HAZARDU Ile wynosi π? PRZETWARZANE JĘZYKA: OD PLATONA DO SYSTEMÓW Eksperckich Składnia: zabawa klockami Od pojedynczych słów do czytania między wierszami Randkujące roboty PRZYSZŁOŚĆ ZE SZTUCZNĄ INTELIGENCJĄ Czarna skrzynka Zachować pracę jak najdłużej Anioły i demony Tabularasa
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153425 N (1 egz.)
Książka
W koszyku
Bibliografia, netografia na stronach 367-371. Indeks.
1.Pojęcia wstępne uczenia maszynowego 2.Modele regresji liniowej 2.1.Ogólny model regresji liniowej 2.2.Zastosowanie dekompozycji SVD w regresji liniowej 2.3.Implementacja regresji liniowej 3.Klasyfikatory KNN 4.Klasyfikatory probabilistyczne Bayesa 4.1.Pełny klasyfikator Bayesa 4.2.Naiwny klasyfikator Bayesa 4.3.Implementacja naiwnego klasyfikatora Bayesa w Matlabie 5.Drzewa decyzyjne 5.1.Struktura drzewa decyzyjnego 5.2.Algorytm tworzenia drzewa decyzyjnego 5.3.Implementacja modelu drzewa decyzyjnego 5.4.Las losowy drzew decyzyjnych 6.Sieć neuronowa MLP 6.1.Struktura sieci 6.2.Algorytmy uczące sieci MLP 6.3.1.Wyznaczanie gradintu metodą propagacji wstecznej 6.3.2.Algorytmy gradientowe uczenia sieci 6.3.3.Program komputerowy do uczenia sieci MLP w Matlabie 6.4.Przykłady użycia sieci MLP w aproksymacji danych 6.5.Praktyczne wskazówki doboru struktury sieci MLP 7.Sieć radialna RBF 7.1.Struktura sieci RBF 7.2.Algorytmy uczące sieci RBF 7.2.1.Zastosowanie algorytmu samoorganizacji i dekompozycji SVD 7.2.2.Algorytm OLS 7.3.Program komputerowy do uczenia sieci radialnej w Matlabie 7.4.Przykłady zastosowania sieci RBF 7.4.1.Aproksymacja funkcji nieliniowych 7.4.2.Problem 2 spiral 7.4.3.Sieć RBF w kalibracji sztucznego nosa 8.Sieć wektorów nośnych SVM 8.1.Sieć liniowa SVM w zadaniu klasyfikacji 8.2.Sieć nieliniowa SVM w zadaniu klasyfikacji 8.3.1.Interpretacja mnożników Lagrange'a w rozwiązaniu sieci 8.3.2.Problem klasyfikacji przy wielu klasach 8.4.Sieci SVM do zadań regresji 8.5.Przegląd algorytmów rozwiązania zadania dualnego 8.6.Program komputerowy uczenia sieci SVM w Matlabie 8.7.Przykłady implementacji uczenia sieci SVM 8.8.Porównanie sieci SVM z innymi rozwiązaniami neuronowymi 9.Sieci głębokie 9.1.Sieć konwolucyjna CNN 9.2.1.Struktura sieci CNN 9.2.2.Podstawowe operacje w sieci CNN 9.2.3.Uczenie sieci CNN 9.3.Transfer Learning 9.4.Przykład użycia sieci ALEXNET w trybie transfer learning 9.5.Inne rozwiązania pre-trenowanej architektury sieci CNN 9.6.Sieci CNN do detekcji obiektów w obrazie 9.6.1.SiećYOLO 9.6.2.Sieć R-CNN 9.6.3.Sieć U-NET w segmentacji obrazów biomedycznych 9.7.Autoenkoder 9.7.1.Struktura autoenkodera 9.7.2.Funkcja celu 9.7.3.Proces uczenia 9.7.4.Przykład zastosowania autoenkodera w kodowaniu danych 9.8.Podstawy działania autoenkodera wariacyjnego 9.9.Sieci generatywne GAN 9.10.Głębokie sieci rekurencyjne LSTM 9.10.1.Zasada działania sieci LSTM 9.11. Sieci transformerowe 9.11.1.Enkoder 9.11.2.Dekoder 9.11.3.Uczenie sieci 9.11.4.Inne zastosowania sieci transformerowych 10.Zagadnienia generalizacji i zespoły sieci 10.1.Pojęcie generalizacji 10.2.Miara VCdim i jej związek z generalizacją 10.3.Metody poprawy zdolności generalizacji sieci 10.4.Problem generalizacji w sieciach głębokich 10.5.Zespoły sieci do polepszenia zdolności generalizacji 10.5.1.Struktura zespołu i metody integracji 10.5.2.Warunki właściwego działania zespołu 10.6.Techniki tworzenia silnych rozwiązań na bazie słabych predyktorów 10.6.1.AdaBoost 10.6.2.Gradient boosting 11.Transformacje i metody redukcji wymiaru danych 11.1.Transformacja PCA 11.1.1.Istota przekształcenia PCA 11.1.2.Implementacja przekształcenia PCA w Matlabie 11.1.3.Zastosowanie PCA w kompresji 11.1.4.PCA w zastosowaniu do ilustracji rozkładu danych wielowymiarowych 11.2.Przekształcenie LDA Fishera 11.3.Ślepa separacja sygnałów 11.3.1.Sformułowanie problemu ślepej separacji 11.3.2.Algorytmy bazujące na statystykach drugiego rzędu 11.3.3.Metody bazujące na statystykach wyższego rzędu 11.3.4.Toolbox ICALAB w Matlabie 11.4.Rzutowanie Sammona 11.5.Transformacja tSNE 12.Metody grupowania danych wielowymiarowych 12.1.Miary odległości między wektorami 12.2.Miary odległości między klastrami 12.3.Algorytm K-means grupowania 12.4.Algorytm hierarchiczny grupowania 12.5.Algorytmy rozmyte grupowania 12.6.1.Algorytm grupowania górskiego 12.6.2.Algorytm c-means 12.7.Miary jakości grupowania danych 12.7.1.Miary jakości grupowania danych nieprzypisanych do klas 12.7.2.Miary jakości grupowania danych przypisanych do klas 13.Wybrane metody generacji i selekcji cech diagnostycznych 13.1.Metody generacji cech diagnostycznych 13.2.Metody selekcji cech diagnostycznych 13.3.1.Metoda dyskryminacyjna Fishera 13.3.2.Metoda korelacji danych z klasą 13.3.3.Zastosowanie jednowejściowej sieci SVM 13.3.4.Zastosowanie wielowejściowej liniowej sieci SVM 13.3.5.Selekcja cech bazująca na sekwencji eliminacji krokowej 13.3.6.Selekcja przy zastosowaniu algorytmu genetycznego 13.3.7.Zastosowanie testu statystycznego Kolmogorova-Smirnova 13.3.8.Zastosowanie testu Wilcoxona-Manna-Whitneya 13.3.9.Selekcja przy zastosowaniu transformacji PCA 13.3.10.Selekcja przy zastosowaniu transformacji LDA 13.3.11.Selekcja przy zastosowaniu lasu losowego 13.3.12.Selekcja cech przy użyciu algorytmu Refieff 13.3.13.Selekcja przy użyciu metody NCA 13.3.14.Metoda MRMR 14.Metody oceny jakości rozwiązań 14.1.Miary jakości regresji 14.2.Badanie jakości rozwiązań w zadaniach klasyfikacji 14.2.1.Miary jakości klasyfikatora 14.2.2.Charakterystyka ROC 14.3.Metody poprawy jakości klasyfikatora 14.3.1.Metoda różnicowania kosztu błędnej klasyfikacji 14.3.2.Metody równoważenia klas 14.3.3.Problemy klasyfikacji wieloklasowej 14.4.Obiektywna ocena zdolności generalizacyjnych systemu eksploracji 15.Adaptacyjne systemy rozmyte 15.1.Podstawy matematyczne systemów rozmytych 15.2.Systemy wnioskowania 15.3.Struktura systemu rozmytego TSK typu ANFIS 15.4.Algorytm uczenia sieci ANFIS 15.5.Zastosowanie algorytmu grupowania rozmytego c-means w tworzeniu reguł wnio¬skowania 15.6.Zmodyfikowana struktura sieci TSK
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
w opracowaniu: sygn. 155446 N, 155447 N (2 egz.)
Biblioteka WEAiI
w opracowaniu: sygn. 155377 N (1 egz.)
Książka
W koszyku
W książce także ISBN oryginału.
Tytuł oryginału: AI crash course : a fun and hands-on introduction to machine learning, reinforcement learning, deep learning, and artificial intelligence with Python.
Rozdział 1. Witamy w świecie robotów 17 Rozpoczęcie przygody z AI 18 Cztery różne modele AI 18 Praktyczne zastosowanie modeli 19 Dokąd może Cię zaprowadzić nauka AI? 20 Energia 20 Opieka zdrowotna 21 Transport i logistyka 21 Edukacja 21 Bezpieczeństwo 21 Zatrudnienie 21 Inteligentne domy i roboty 22 Rozrywka i zadowolenie 22 Środowisko 22 Gospodarka, biznes i finanse 22 Rozdział 2. Poznaj narzędzia AI 25 Strona GitHuba 25 Colaboratory 26 Rozdział 3. Podstawy języka Python - naucz się kodować w Pythonie 33 Wyświetlanie tekstu 34 Zmienne i operacje 35 Listy i tablice 36 Instrukcje warunkowe if 38 Pętle for i while 39 Funkcje 42 Klasy i obiekty 43 Rozdział 4. Podstawowe techniki AI 47 Co to jest uczenie ze wzmacnianiem? 47 Pięć zasad Reinforcement Learning 48 Zasada nr 1 - system wejścia i wyjścia 48 Zasada nr 2 - nagroda 49 Zasada nr 3 - środowisko AI 50 Zasada nr 4 - proces decyzyjny Markowa 50 Zasada nr 5 - szkolenie i wnioskowanie 51 Rozdział 5. Twój pierwszy model AI - uważaj na bandytów! 55 Problem wielorękiego bandyty 55 Model próbkowania Thompsona 56 Kodowanie modelu 57 Zrozumienie modelu 60 Co to jest rozkład? 61 Walka z MABP 64 Strategia próbkowania Thompsona w trzech krokach 67 Ostateczny krok ku zrozumieniu próbkowania Thompsona 67 Próbkowanie Thompsona w porównaniu ze standardowym modelem 68 Rozdział 6. AI w sprzedaży i reklamie - sprzedawaj jak Wilk z AI Street 71 Problem do rozwiązania 71 Budowanie środowiska do przeprowadzenia symulacji 73 Uruchomienie symulacji 75 Podsumowanie sytuacji 78 Rozwiązanie AI i odświeżenie umysłu 78 Rozwiązanie AI 78 Rozumowanie 79 Implementacja 80 Próbkowanie Thompsona czy wybór losowy 80 Zacznijmy kodować 80 Wynik końcowy 84 Rozdział 7. Witamy w Q-learningu 87 Labirynt 88 Początek 88 Budowanie środowiska 89 Budowanie sztucznej inteligencji 95 Cały proces Q-learningu 98 Tryb treningowy 98 Tryb wnioskowania 99 Rozdział 8. AI w logistyce - roboty w magazynie 101 Budowanie środowiska 104 Stany 104 Akcje 104 Nagrody 105 Przypomnienie rozwiązania AI 106 Implementacja 107 Część 1. - budowanie środowiska 107 Część 2. - tworzenie rozwiązania AI z wykorzystaniem Q-learningu 109 Część 3. - wprowadzenie do produkcji 111 Ulepszenie 1. - automatyzacja przypisywania nagród 113 Ulepszenie 2. - dodawanie celu pośredniego 115 Rozdział 9. Zostań ekspertem od sztucznego mózgu - głębokie Q-learning 119 Przewidywanie cen domów 119 Przesyłanie zbioru danych 120 Importowanie bibliotek 121 Wyłączanie zmiennych 122 Przygotowywanie danych 124 Budowa sieci neuronowej 126 Szkolenie sieci neuronowej 127 Wyświetlanie wyników 128 Teoria głębokiego uczenia 129 Neuron 129 Funkcja aktywacji 132 Jak działają sieci neuronowe? 137 Jak się uczą sieci neuronowe? 137 Propagacja w przód i wstecz 139 Metody gradientu prostego 140 Głębokie uczenie 147 Metoda Softmax 148 Podsumowanie głębokiego Q-learningu 150 Pamięć doświadczeń 150 Cały algorytm głębokiego Q-learningu 151 Rozdział 10. Sztuczna inteligencja dla pojazdów autonomicznych - zbuduj samochód samojezdny 153 Budowanie środowiska 154 Określenie celu 156 Ustawianie parametrów 158 Stany wejściowe 161 Działania wyjściowe 162 Nagrody 163 Przypomnienie rozwiązania AI 165 Implementacja 166 Krok 1. - importowanie bibliotek 166 Krok 2. - stworzenie architektury sieci neuronowej 167 Krok 3. - implementacja pamięci doświadczeń 171 Krok 4. - implementacja głębokiego Q-learningu 173 Prezentacja 182 Instalowanie Anacondy 183 Tworzenie środowiska wirtualnego w Pythonie 3.6 184 Instalowanie PyTorch 186 Instalowanie Kivy 187 Rozdział 11. AI dla biznesu - minimalizuj koszty dzięki głębokiemu Q-learningowi 197 Problem do rozwiązania 197 Budowanie środowiska 198 Parametry i zmienne środowiska serwerowego 198 Założenia środowiska serwerowego 199 Symulacja 201 Ogólna funkcjonalność 201 Definiowanie stanów 203 Definiowanie działań 204 Definiowanie nagród 204 Przykład ostatecznej symulacji 205 Rozwiązanie AI 208 Mózg 209 Implementacja 211 Krok 1. - budowanie środowiska 212 Krok 2. - budowanie mózgu 217 Krok 3. - implementacja algorytmu uczenia przez głębokie wzmacnianie 223 Krok 4. - szkolenie AI 229 Krok 5. - testowanie AI 238 Demo 240 Podsumowanie - ogólny schemat AI 249 Rozdział 12. Głębokie konwolucyjne Q-learning 251 Do czego służą sieci CNN? 251 Jak działają CNN? 253 Krok 1. - konwolucja 254 Krok 2. - max pooling 256 Krok 3. - spłaszczanie 259 Krok 4. - pełne połączenie 260 Głębokie konwolucyjne Q-learning 262 Rozdział 13. AI dla gier wideo - zostań mistrzem Snake'a 265 Problem do rozwiązania 265 Tworzenie środowiska 266 Definiowanie stanów 267 Definiowanie działań 268 Definiowanie nagród 269 Rozwiązanie AI 270 Mózg 270 Pamięć doświadczeń 272 Implementacja 273 Krok 1. - budowanie środowiska 273 Krok 2. - budowanie mózgu 279 Krok 3. - tworzenie pamięci doświadczeń 282 Krok 4. - trening AI 283 Krok 5. - testowanie AI 289 Demo 290 Instalacja 291 Wyniki 295 Rozdział 14. Podsumowanie 299 Podsumowanie - ogólny schemat AI 299 Odkrywanie, co czeka Cię dalej w AI 300 Ćwicz, ćwicz i ćwicz 301 Networking 302 Nigdy nie przestawaj się uczyć 302
Sygnatura czytelni BWEAiI: XII A 45
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 150990 N (1 egz.)
Brak okładki
Artykuł
W koszyku
Książka
W koszyku
Nadeszła Al.To co teraz? Piewcy Al i sprzedawcy maści na szczury Technorealizm: czerwona pigułka? Niebieska? Nie musisz wybierać Znaleźć miejsce Al w strategii Przewaga konkurencyjna wymyślona na nowo Zaranie zrozumienia języka naturalnego w biznesie: przykład marketingu Demokratyzacja i aspekty antykonkurencji w Al Współpracująca Al Pojutrze
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 154184 N (1 egz.)
Książka
W koszyku
Testowanie kodu w praktyce / Renu Rajani ; tłumaczenie: Maksymilian Gutowski. - Gliwice: Wydawnictwo Helion, copyright 2018. - 328 stron ; ilustracje, schematy, wykresy ; 23 cm.
Tytuł oryginału : Testing practitioner handbook, 2017.
Na stronach [321]-328 : Netografia. Indeks.
Stan transformacji cyfrowej - co się zmieniło w latach 2013 - 2016? Priorytety transformacji QA i testowania Czynniki transformacyjne Poziom dojrzałości cyfrowej Wydatki na cyfrowe QA Prognozy rozwoju aplikacji chmurowych Przyrost wyzwań towarzyszących testom mobilnym i wielokanałowym IoT Ograniczenie wyzwań towarzyszących testowaniu wrażeń klienta Podział prac nad QA na rozwój i wsparcie produkcji Intensyfikacja działań QA w zakresie rozwoju W fazie projektowania Prowadzenie hybrydowych zespołów QA Przyszłość modeli przedsięwzięć testowych DevOps Dane z World Quality Report 2016 dotyczące industrializacji i TCoE, Model fabryczny cyfrowego QA Cyfrowy model fabryki w industrializacji dostawy cyfrowego QA Kluczowe aspekty korzystania z DQAF Korzyści Crowdsourcing - elastyczne TCoE na żądanie Czym jest crowdtesting i jak to działa? Modele operacyjne crowdtestingu Crowdtesting w ramach TCoE Korzyści z crowdtestingu Testowanie weekendowe - modus operandi Zalety Wady Trendy w stosowaniu testów crowdsourcingowych W jaki sposób duże organizacje IT mogą wdrożyć program testów weekendowych? Testowanie w produkcji zwinnej i poziom akceptacji podejścia zwinnego Jakie korzyści w porównaniu z modelem waterfall? Scrum Kanban Jak przebiega testowanie w zwinnych sprintach? Zwinność w środowiskach rozproszonych Stan akceptacji zwinności - ustalenia World Quality Report 2016 - 2017 Wzrost poziomu akceptacji metodyki zwinnej DevOps Zwiększone wykorzystanie Rosnąca złożoność testowania w metodologii zwinnej Wyzwania towarzyszące przygotowywaniu CoE na potrzeby testów zwinnych W jaki sposób QA przekształca się, aby sprostać wymogom podejścia zwinnego i DevOps Czym się różni testowanie w ramach DevOps od tradycyjnego? Podejście zwinne polega na szybkości, DevOps usuwa granice dzielące rozwój QA i operację Podejście zwinne kontra DevOps Rola automatyzacji w DevOps Znaczenie Wskażniki i pomiar Śledzenie postępów Ocena stanu wdrożenia DevOps przy użyciu metody benchmarkingowej Wyzwania towarzyszące wdrożeniu DevOps DevOps QA benchmarking - czym jest i do czego służy Obszary Trendy DevOps według WQR ChatOps - historia i potrzeby Jak to działa? Zastosowanie Korzyści BDD - założenia Gherkin - podstawowa składnia i przykład Role w zespole Korzyści z używania Gherkina Automatyzacja zarządzania konfiguracją dla środowisk testowych DevOps Zautomatyzowane zarządzanie danymi testowymi w środowisku DevOps TDM w środowisku DevOps - kluczowe wyzwania Rozwiązanie TDM dla środowiska DevOps Typowe usługi TDM i architektura TDM Testowanie w cyklu DevOps z wykorzystaniem architektury mikrousług Zautomatyzowane środowiska testowe w DevOps Zarządzanie Automatyzacja Korzyści z automatyzacji Wskaźniki środowisk testowych do uwzględnienia przy zarządzaniu wydaniami Narzędzia automatyzacji środowiska testowego Wirtualizacja usług jako czynnik wspomagający DevOps Rola wirtualizacji Narzędzia do wirtualizacji Identyfikacja przypadków do uwzględnienia w testach regresyjnych Wprowadzenie Proces testowania Jak dobierać przypadki na potrzeby testów regresyjnych? Automatyzacja testów dostępności w środowisku DevOps AX i DevOps Automatyzacja testowania AX w DevOps Standardowe narzędzia AX Optymalizacja wydajności aplikacji Java Wąskie gardła wydajności Obiekty - Wielokrotne wykorzystywanie Zarządzanie pulami Normalizacja obiektów Enumeracja stałych Operatory a metody Unikanie nadmiernego gromadzenia śmieci Opóźniona inicjalizacja Narzędzia do optymalizacji wydajności Javy Profiler NetBeans do analizy aplikacji Java Testowanie aplikacji mobilnych Kluczowe wyzwania Wrażenia użytkownika (UX) Dopasowanie kontekstu Zróżnicowane interfejsy Różnorodność urządzeń Testowanie Wyzwania towarzyszące automatyzacji testów z wykorzystaniem niestandardowych narzędzi Skrócenie czasu wprowadzenia produktu na rynek Sposoby na zwiększenie użyteczności aplikacji mobilnych Testowanie aplikacji analitycznych - co się zmieniło w dziedzinie SMAC Zrozumienie klientów gromadzenie danych i analiza Testowanie aplikacji BI/BA Aplikacji big data/Hadoop? Migracja aplikacji do chmury Sprawdzenia gotowości aplikacji do migracji Kluczowe obszary testowania Wyzwania towarzyszące walidacji Testowanie w chmurze Uwzględnienie oddalenia geograficznego Przełamywanie barier komunikacyjnych Zabezpieczanie aplikacji Replikacja platformy Testowanie wydajności na żądanie w środowiskach samoobsługowych Platforma chmurowa do tworzenia całościowych testów wydajności Środowiska samoobsługowe do prowadzenia testów wydajności na żądanie Kluczowe scenariusze testowania wydajności na żądanie - proponowana architektura QA w dziedzinie marketingu cyfrowego Rozwój Wyzwania Znaczenie jakości QA cyfrowych aplikacji marketingowych Panel bezpieczeństwa dla zarządu Zarządzanie bezpieczeństwem aplikacji Konsekwencje naruszenia zabezpieczeń Implementacji pulpitu Zrobotyzowana automatyzacja w testowaniu aplikacji mobilnych Korzyści ze zrobotyzowanej automatyzacji procesów (RPA) Wykorzystanie RPA w testach mobilnych Kluczowe aspekty testowania aplikacji internetu rzeczy (IoT) Oopracowania solidnej strategii Kwestie do uwzględnienia przy testowaniu IoT Rodzaje testów IoT Biznes algorytmiczny i testowanie w oparciu o model Wykorzystanie inteligencji kognitywnej w testowaniu Wprowadzenie Ewolucja technologii Metodologie Zalety badań Przypadki zastosowania dla konkretnych sektorów Obsługiwane technologie Koszty Wyzwania Fintech - testowanie i QA w nowej, przełomowej dziedzinie Ekosystem Usługi na różne sektory rynku Testowanie aplikacji i rozwiązań Podsumowanie Technologia blockchain Technologie cyfrowych łańcuchów dostaw i zagadnienia QA Zrozumienie procesu Trendy branżowe Nowe technologie w handlu detalicznym QA w dziedzinie łańcuchów dostawczych Potencjalne innowacje w dziedzinie e-zdrowia - konsekwencje dla testowania i QA Trendy transformacji cyfrowej w sektorze opieki zdrowotnej E-zdrowie w praktyce Ekosystem cyfrowej opieki zdrowotnej Typowe wyzwania w branży e-zdrowia Wprowadzenie solidnego QA Walidacja danych w ramach podróży pacjenta Trendy w globalnym sektorze motoryzacyjnym - konsekwencje dla testowania i QA Czynniki stymulujące rozwój branży motoryzacyjnej i wpływ globalny na nie W jaki sposób trendy w sektorze motoryzacyjnym wpływają na testowanie oprogramowania? Cyfrowa transformacja w sektorze konsumenckim i detalicznym - zagadnienia QA, Wyzwania w sektorze konsumenckim i detalicznym Sklepy stacjonarne i internetowe Podróż klienta cyfrowego przez środowisko omni-channel Korzyści z cyfryzacji Czynniki istotne dla nabywców cyfrowych Multi-channel i omni-channel - zagadnienia QA Widoczność zapasów Komunikacja z siecią Predykcyjna analiza klientów Strategia realizacji zamówień Transformacja cyfrowa w energetyce i sektorze użyteczności publicznej - zagadnienia QA Trendy technologiczne Technologie dla transformacji cyfrowej w sektorze energetyki i użyteczności publicznej Komunikacja wielokanałowa i spójność podróży klienta Uwagi dotyczące testów podróży klienta inteligentnej infrastruktury pomiarowej Trendy cyfrowej transformacji QA w sektorze energetyki i użyteczności publicznej Inteligentna energetyka i sieci energetyczne - skuteczne testowanie Trendy w sektorze energetycznym i usług komunalnych Dane WQR 2016 Wyzwania w sektorze energetycznym Inteligentne liczniki i sieci Proces testowania SMI Testowanie cyfrowych aplikacji linii lotniczych - projekty responsywne Rola cyfryzacji QA i testowanie w branży lotniczej Testowanie responsywnych stron internetowych Testowanie tablic ortogonalnych (OAT) - zastosowanie w sektorze opieki zdrowotnej Wyzwania towarzyszące testowaniu aplikacji H&LS Przyszłość konsultingu w erze przemian cyfrowych Przyszłość testowania w świecie cyfrowym Kluczowe trendy Rozpowszechnione technologie i analizy predyktywne UX Inteligencja kognitywna w połączonych z siecią pojazdach autonomicznych Wielokanałowa łączność Dezintermediacja - platforma łącząca nowych partnerów Kwestie związane z testowaniem nowych technologii Testowanie w przyszłości - możliwości rozwoju zawodowego Zawody testerskie Znaczenie technologii i narzędzi branżowych lub dziedzinowych w karierze testera Umiejętności wymagane w testowaniu zwinnym i DevOps Nowy profil testera w DevOps Robotyka Uczenie maszynowe Internet rzeczy - konsekwencje dla indyjskiego sektora usług Robotyka uczenie maszynowe i IoT - kontekst Jaki wpływ wywiera postęp technologiczny na gospodarkę indyjską? Perspektywy dla indyjskiego sektora usług
Sygnatura czytelni BWEAiI: XII J 74
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 145481 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Python machine learning : machine learning and deep learning with Pyton, scikit-learn and TensorFlow.
Wydanie 2. odnosi się do oryginału.
Na książce także ISBN oryginału.
Indeks.
Rozdział 1. Umożliwianie komputerom uczenia się z danych 23 Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę 24 Trzy różne rodzaje uczenia maszynowego 24 Prognozowanie przyszłości za pomocą uczenia nadzorowanego 25 Rozwiązywanie problemów interaktywnych za pomocą uczenia przez wzmacnianie 28 Odkrywanie ukrytych struktur za pomocą uczenia nienadzorowanego 29 Wprowadzenie do podstawowej terminologii i notacji 30 Strategia tworzenia systemów uczenia maszynowego 32 Wstępne przetwarzanie - nadawanie danym formy 32 Trenowanie i dobór modelu predykcyjnego 34 Ewaluacja modeli i przewidywanie wystąpienia nieznanych danych 34 Wykorzystywanie środowiska Python do uczenia maszynowego 35 Instalacja środowiska Python i pakietów z repozytorium Python Package Index 35 Korzystanie z platformy Anaconda i menedżera pakietów 36 Pakiety przeznaczone do obliczeń naukowych, analizy danych i uczenia maszynowego 36 Rozdział 2. Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji 39 Sztuczne neurony - rys historyczny początków uczenia maszynowego 40 Formalna definicja sztucznego neuronu 41 Reguła uczenia perceptronu 43 Implementacja algorytmu uczenia perceptronu w Pythonie 45 Obiektowy interfejs API perceptronu 45 Trenowanie modelu perceptronu na zestawie danych Iris 48 Adaptacyjne neurony liniowe i zbieżność uczenia 53 Minimalizacja funkcji kosztu za pomocą metody gradientu prostego 55 Implementacja algorytmu Adaline w Pythonie 56 Usprawnianie gradientu prostego poprzez skalowanie cech 60 Wielkoskalowe uczenie maszynowe i metoda stochastycznego spadku wzdłuż gradientu 62 Rozdział 3. Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn 67 Wybór algorytmu klasyfikującego 68 Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu 68 Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej 74 Teoretyczne podłoże regresji logistycznej i prawdopodobieństwa warunkowego 74 Wyznaczanie wag logistycznej funkcji kosztu 78 Przekształcanie implementacji Adaline do postaci algorytmu regresji logistycznej 80 Uczenie modelu regresji logistycznej za pomocą biblioteki scikit-learn 84 Zapobieganie przetrenowaniu za pomocą regularyzacji 86 Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych 88 Teoretyczne podłoże maksymalnego marginesu 89 Rozwiązywanie przypadków nieliniowo rozdzielnych za pomocą zmiennych uzupełniających 90 Alternatywne implementacje w interfejsie scikit-learn 92 Rozwiązywanie nieliniowych problemów za pomocą jądra SVM 93 Metody jądrowe dla danych nierozdzielnych liniowo 93 Stosowanie sztuczki z funkcją jądra do znajdowania przestrzeni rozdzielających w przestrzeni wielowymiarowej 95 Uczenie drzew decyzyjnych 99 Maksymalizowanie przyrostu informacji - osiąganie jak największych korzyści 100 Budowanie drzewa decyzyjnego 103 Łączenie wielu drzew decyzyjnych za pomocą modelu losowego lasu 107 Algorytm k-najbliższych sąsiadów - model leniwego uczenia 109 Rozdział 4. Tworzenie dobrych zbiorów uczących - wstępne przetwarzanie danych 115 Kwestia brakujących danych 115 Wykrywanie brakujących wartości w danych tabelarycznych 116 Usuwanie próbek lub cech niezawierających wartości 117 Wstawianie brakujących danych 118 Estymatory interfejsu scikit-learn 119 Przetwarzanie danych kategoryzujących 119 Cechy nominalne i porządkowe 120 Tworzenie przykładowego zestawu danych 120 Mapowanie cech porządkowych 121 Kodowanie etykiet klas 121 Kodowanie "gorącojedynkowe" cech nominalnych (z użyciem wektorów własnych) 122 Rozdzielanie zestawu danych na oddzielne podzbiory uczące i testowe 124 Skalowanie cech 127 Dobór odpowiednich cech 129 Regularyzacje L1 i L2 jako kary ograniczające złożoność modelu 129 Interpretacja geometryczna regularyzacji L2 130 Rozwiązania rzadkie za pomocą regularyzacji L1 131 Algorytmy sekwencyjnego wyboru cech 135 Ocenianie istotności cech za pomocą algorytmu losowego lasu 140 Rozdział 5. Kompresja danych poprzez redukcję wymiarowości 143 Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych 144 Podstawowe etapy analizy głównych składowych 144 Wydobywanie głównych składowych krok po kroku 146 Wyjaśniona wariancja całkowita 148 Transformacja cech 149 Analiza głównych składowych w interfejsie scikit-learn 152 Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej 154 Porównanie analizy głównych składowych z liniową analizą dyskryminacyjną 155 Wewnętrzne mechanizmy działania liniowej analizy dyskryminacyjnej 156 Obliczanie macierzy rozproszenia 157 Dobór dyskryminant liniowych dla nowej podprzestrzeni cech 159 Rzutowanie próbek na nową przestrzeń cech 161 Implementacja analizy LDA w bibliotece scikit-learn 161 Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas 163 Funkcje jądra oraz sztuczka z funkcją jądra 164 Implementacja jądrowej analizy głównych składowych w Pythonie 168 Rzutowanie nowych punktów danych 175 Algorytm jądrowej analizy głównych składowych w bibliotece scikit-learn 178 Rozdział 6. Najlepsze metody oceny modelu i strojenie parametryczne 181 Usprawnianie cyklu pracy za pomocą kolejkowania 181 Wczytanie zestawu danych Breast Cancer Wisconsin 182 Łączenie funkcji transformujących i estymatorów w kolejce czynności 183 Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu 184 Metoda wydzielania 185 K-krotny sprawdzian krzyżowy 186 Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji 190 Diagnozowanie problemów z obciążeniem i wariancją za pomocą krzywych uczenia 190 Rozwiązywanie problemów przetrenowania i niedotrenowania za pomocą krzywych walidacji 193 Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki 195 Strojenie hiperparametrów przy użyciu metody przeszukiwania siatki 195 Dobór algorytmu poprzez zagnieżdżony sprawdzian krzyżowy 196 Przegląd metryk oceny skuteczności 198 Odczytywanie macierzy pomyłek 198 Optymalizacja precyzji i pełności modelu klasyfikującego 200 Wykres krzywej ROC 202 Metryki zliczające dla klasyfikacji wieloklasowej 204 Kwestia dysproporcji klas 205 Rozdział 7. Łączenie różnych modeli w celu uczenia zespołowego 209 Uczenie zespołów 209 Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego 213 Implementacja prostego klasyfikatora głosowania większościowego 214 Stosowanie reguły głosowania większościowego do uzyskiwania prognoz 219 Ewaluacja i strojenie klasyfikatora zespołowego 221 Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych 226 Agregacja w pigułce 227 Stosowanie agregacji do klasyfikowania przykładów z zestawu Wine 228 Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego 231 Wzmacnianie - mechanizm działania 232 Stosowanie algorytmu AdaBoost za pomocą biblioteki scikit-learn 236 Rozdział 8. Wykorzystywanie uczenia maszynowego w analizie sentymentów 241 Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu 242 Uzyskiwanie zestawu danych IMDb 242 Przetwarzanie wstępne zestawu danych IMDb do wygodniejszego formatu 243 Wprowadzenie do modelu worka słów 244 Przekształcanie słów w wektory cech 245 Ocena istotności wyrazów za pomocą ważenia częstości termów - odwrotnej częstości w tekście 246 Oczyszczanie danych tekstowych 248 Przetwarzanie tekstu na znaczniki 249 Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu 251 Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe 253 Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta 256 Rozkładanie dokumentów tekstowych za pomocą analizy LDA 257 Analiza LDA w bibliotece scikit-learn 258 Rozdział 9. Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej 263 Serializacja wyuczonych estymatorów biblioteki scikit-learn 264 Konfigurowanie bazy danych SQLite 266 Tworzenie aplikacji sieciowej za pomocą środowiska Flask 269 Nasza pierwsza aplikacja sieciowa 269 Sprawdzanie i wyświetlanie formularza 271 Przekształcanie klasyfikatora recenzji w aplikację sieciową 275 Pliki i katalogi - wygląd drzewa katalogów 277 Implementacja głównej części programu w pliku app.py 277 Konfigurowanie formularza recenzji 280 Tworzenie szablonu strony wynikowej 281 Umieszczanie aplikacji sieciowej na publicznym serwerze 282 Tworzenie konta w serwisie PythonAnywhere 283 Przesyłanie aplikacji klasyfikatora filmowego 283 Aktualizowanie klasyfikatora recenzji filmowych 284 Rozdział 10. Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej 287 Wprowadzenie do regresji liniowej 288 Prosta regresja liniowa 288 Wielowymiarowa regresja liniowa 288 Zestaw danych Housing 290 Wczytywanie zestawu danych Housing do obiektu DataFrame 290 Wizualizowanie ważnych elementów zestawu danych 292 Analiza związków za pomocą macierzy korelacji 293 Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów 296 Określanie parametrów regresywnych za pomocą metody gradientu prostego 296 Szacowanie współczynnika modelu regresji za pomocą biblioteki scikit-learn 300 Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC 301 Ocenianie skuteczności modeli regresji liniowej 304 Stosowanie regularyzowanych metod regresji 307 Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa 308 Dodawanie członów wielomianowych za pomocą biblioteki scikit-learn 309 Modelowanie nieliniowych zależności w zestawie danych Housing 310 Analiza nieliniowych relacji za pomocą algorytmu losowego lasu 314 Rozdział 11. Praca z nieoznakowanymi danymi - analiza skupień 319 Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów 320 Algorytm centroidów w bibliotece scikit-learn 320 Inteligentniejszy sposób dobierania pierwotnych centroidów za pomocą algorytmu k-means++ 324 Klasteryzacja twarda i miękka 325 Stosowanie metody łokcia do wyszukiwania optymalnej liczby skupień 327 Ujęcie ilościowe jakości klasteryzacji za pomocą wykresu profilu 328 Organizowanie skupień do postaci drzewa klastrów 333 Oddolne grupowanie skupień 333 Przeprowadzanie hierarchicznej analizy skupień na macierzy odległości 335 Dołączanie dendrogramów do mapy cieplnej 338 Aglomeracyjna analiza skupień w bibliotece scikit-learn 339 Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN 340 Rozdział 12. Implementowanie wielowarstwowej sieci neuronowej od podstaw 347 Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych 348 Jednowarstwowa sieć neuronowa - powtórzenie 349 Wstęp do wielowarstwowej architektury sieci neuronowych 351 Aktywacja sieci neuronowej za pomocą propagacji w przód 354 Klasyfikowanie pisma odręcznego 356 Zestaw danych MNIST 357 Implementacja perceptronu wielowarstwowego 362 Trenowanie sztucznej sieci neuronowej 371 Obliczanie logistycznej funkcji kosztu 371 Ujęcie intuicyjne algorytmu wstecznej propagacji 374 Uczenie sieci neuronowych za pomocą algorytmu propagacji wstecznej 375 Zbieżność w sieciach neuronowych 378 Jeszcze słowo o implementacji sieci neuronowej 380 Rozdział 13. Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow 381 Biblioteka TensorFlow a skuteczność uczenia 382 Czym jest biblioteka TensorFlow? 383 W jaki sposób będziemy poznawać bibliotekę TensorFlow? 384 Pierwsze kroki z biblioteką TensorFlow 384 Praca ze strukturami tablicowymi 386 Tworzenie prostego modelu za pomocą podstawowego interfejsu TensorFlow 387 Skuteczne uczenie sieci neuronowych za pomocą wyspecjalizowanych interfejsów biblioteki TensorFlow 391 Tworzenie wielowarstwowych sieci neuronowych za pomocą interfejsu Layers 392 Projektowanie wielowarstwowej sieci neuronowej za pomocą interfejsu Keras 395 Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych 400 Funkcja logistyczna - powtórzenie 400 Szacowanie prawdopodobieństw przynależności do klas w klasyfikacji wieloklasowej za pomocą funkcji softmax 402 Rozszerzanie zakresu wartości wyjściowych za pomocą funkcji tangensa hiperbolicznego 403 Aktywacja za pomocą prostowanej jednostki liniowej (ReLU) 405 Rozdział 14. Czas na szczegóły - mechanizm działania biblioteki TensorFlow 409 Główne funkcje biblioteki TensorFlow 410 Rzędy i tensory 410 Sposób uzyskania rzędu i wymiarów tensora 411 Grafy obliczeniowe 412 Węzły zastępcze 414 Definiowanie węzłów zastępczych 414 Wypełnianie węzłów zastępczych danymi 415 Definiowanie węzłów zastępczych dla tablic danych o różnych rozmiarach pakietów danych 416 Zmienne 417 Definiowanie zmiennych 417 Inicjowanie zmiennych 419 Zakres zmiennych 420 Wielokrotne wykorzystywanie zmiennych 421 Tworzenie modelu regresyjnego 423 Realizowanie obiektów w grafie TensorFlow przy użyciu ich nazw 426 Zapisywanie i wczytywanie modelu 428 Przekształcanie tensorów jako wielowymiarowych tablic danych 430 Wykorzystywanie mechanizmów przebiegu sterowania do tworzenia grafów 433 Wizualizowanie grafów za pomocą modułu TensorBoard 436 Zdobywanie doświadczenia w używaniu modułu TensorBoard 439 Rozdział 15. Klasyfikowanie obrazów za pomocą splotowych sieci neuronowych 441 Podstawowe elementy splotowej sieci neuronowej 442 Splotowe sieci neuronowe i hierarchie cech 442 Splot dyskretny 444 Podpróbkowanie 452 Konstruowanie sieci CNN 454 Praca z wieloma kanałami wejściowymi/barw 454 Regularyzowanie sieci neuronowej metodą porzucania 457 Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow 459 Architektura wielowarstwowej sieci CNN 459 Wczytywanie i wstępne przetwarzanie danych 460 Implementowanie sieci CNN za pomocą podstawowego interfejsu TensorFlow 461 Implementowanie sieci CNN za pomocą interfejsu Layers 471 Rozdział 16. Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych 477 Wprowadzenie do danych sekwencyjnych 478 Modelowanie danych sekwencyjnych - kolejność ma znaczenie 478 Przedstawianie sekwencji 478 Różne kategorie modelowania sekwencji 479 Sieci rekurencyjne służące do modelowania sekwencji 480 Struktura sieci RNN i przepływ danych 480 Obliczanie aktywacji w sieciach rekurencyjnych 482 Problemy z uczeniem długofalowych oddziaływań 485 Jednostki LSTM 486 Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji 488 Pierwszy projekt - analiza sentymentów na zestawie danych IMDb za pomocą wielowarstwowej sieci rekurencyjnej 489 Przygotowanie danych 489 Wektor właściwościowy 492 Budowanie modelu sieci rekurencyjnej 494 Konstruktor klasy SentimentRNN 495 Metoda build 495 Metoda train 499 Metoda predict 500 Tworzenie wystąpienia klasy SentimentRNN 500 Uczenie i optymalizowanie modelu sieci rekurencyjnej przeznaczonej do analizy sentymentów 501 Drugi projekt - implementowanie sieci rekurencyjnej modelującej język na poziomie znaków 502 Przygotowanie danych 503 Tworzenie sieci RNN przetwarzającej znaki 506 Konstruktor 506 Metoda build 507 Metoda train 509 Metoda sample 510 Tworzenie i uczenie modelu CharRNN 512 Model CharRNN w trybie próbkowania 512
Sygnatura czytelni BWEAiI: XII Ł 153
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148069 N (1 egz.)
Książka
W koszyku
Sztuczna inteligencja : nowe spojrzenie. T. 1 / Stuart Russell, Peter Norvig ; przekład: Andrzej Grażyński. - Gliwice : Helion, copyright 2023. - 742, [2] strony : ilustracje, wykresy ; 23 cm.
Wydanie 4. odnosi się do oryginału. Na stronie 4. okładki także nazwa wydawcy oryginału: Pearson.
Indeks.
1Sztuczna inteligencja 1.1.Czym jest sztuczna inteligencja? 1.2.Podstawy sztucznej inteligencji 1.3.Historia sztucznej inteligencji 1.4.Stan obecny 1.5.Spodziewane korzyści i ryzyko 2Inteligentni agenci 2.1.Agenci i ich środowiska 2.2.Właściwe zachowanie — koncepcja racjonalności 2.3.Natura środowiska 2.4.Struktura agenta II Rozwiązywanie problemów 3Rozwiązywanie problemów za pomocą wyszukiwania 3.1.Agent rozwiązujący problem 3.2.Przykładowe problemy 3.3.Algorytmy wyszukiwania 3.4.Strategie wyszukiwania niedoinformowanego 3.5.Strategie wyszukiwania poinformowanego (heurystycznego] 3.6.Funkcje heurystyczne 4Wyszukiwanie w złożonych środowiskach 4.1.Wyszukiwanie lokalne i problemy optymalizacyjne 4.2.Wyszukiwanie lokalne w przestrzeniach ciągłych 4.3.Wyszukiwanie z niedeterministycznymi akcjami 4.4.Wyszukiwanie w środowiskach częściowo obserwowalnych 4.5.Wyszukiwanie online i nieznane środowiska 5Wyszukiwanie antagonistyczne i gry 5.1.Teoria gier 5.2.Optymalne decyzje w grach 5.3.Heurystyczne wyszukiwanie alfa-beta 5.4.Wyszukiwanie Monte Carlo 5.5.Gry stochastyczne 5.6.Gry z częściową obserwowalnością 5.7.Ograniczenia algorytmów wyszukiwania w grach 6Problemy spełniania ograniczeń 6.1.Definiowanie problemów spełniania ograniczeń 6.2.Propagacja ograniczeń — wnioskowanie w CPS 6.3.Wyszukiwanie z nawrotami w CPS 6.4.Wyszukiwanie lokalne na usługach CSP 6.5.Struktura problemów CSP III Wiedza, wnioskowanie i planowanie 7Logiczni agenci 7.1.Agent bazujący na wiedzy 7.2.Świat Wumpusa 7.3.Podstawy logiki 7.4.Rachunek zdań — bardzo prosta logika 7.5.Dowodzenie twierdzeń w rachunku zdań 7.6.Efektywne sprawdzanie modeli w rachunku zdań 7.7.Agent na gruncie rachunku zdań 8Logika pierwszego rzędu 8.1.Ponownie o reprezentacji 8.2.Składnia i semantyka logiki pierwszego rzędu 8.3.Wykorzystywanie logiki pierwszego rzędu 8.4.Inżynieria wiedzy w logice pierwszego rzędu 9Wnioskowanie w logice pierwszego rzędu 9.1.Wnioskowanie w rachunku zdań a wnioskowanie w logice pierwszego rzędu 9.2.Unifikacja a wnioskowanie w logice pierwszego rzędu 9.3.Łańcuchowanie progresywne 9.4.Łańcuchowanie regresywne 9.5.Rezolucja 10Reprezentacja wiedzy 10.1.Inżynieria ontologii 10.2.Kategorie i obiekty 10.3.Zdarzenia 10.4.Obiekty mentalne i logika modalna 10.5.Systemy wnioskowania dla kategorii 10.6.Wnioskowanie na podstawie domniemań 11Automatyczne planowanie 11.1.Klasyczne planowanie — co to jest? 11.2.Algorytmy klasycznego planowania 11.3.Heurystyki w planowaniu 11.4.Planowanie hierarchiczne 11.5.Planowanie i działanie w domenach niedeterministycznych 11.6.Czas, harmonogramy i zasoby 11.7.Analiza podejść planistycznych IV Wnioskowanie w warunkach niepewności 12Kwantyfikowanie niepewności 12.1.Działając w warunkach niepewności 12.2.Notacja probabilistyczna 12.3.Wnioskowanie z pełnych wspólnych rozkładów 12.4.Niezależność 12.5.Reguła Bayesa i jej wykorzystywanie 12.6.Naiwne modele bayesowskie 12.7.Odwiedzamy świat Wumpusa 13Wnioskowanie probabilistyczne 13.1.Reprezentowanie wiedzy w niepewnej domenie 13.2.Semantyka sieci bayesowskich 13.3.Ścisłe wnioskowanie w sieciach bayesowskich 13.4.Aproksymowane wnioskowanie w sieciach bayesowskich 13.5.Sieci przyczynowe 14Probabilistyczne wnioskowanie w czasie 14.1.Czas a niepewność 14.2.Wnioskowanie w modelach temporalnych 14.3.Ukryte modele Markowa 14.4.Filtrowanie Kalmana 14.5.Dynamiczne sieci bayesowskie (DBN) 15Programowanie probabilistyczne 15.1.Relacyjne modele probabilistyczne 15.2.Modele probabilistyczne otwartego wszechświata 15.3.Śledzenie skomplikowanego świata 15.4.Programy jako modele probabilistyczne 16Podejmowanie prostych decyzji 16.1.Przekonania i pragnienia w warunkach niepewności 16.2.Podstawy teorii użyteczności 16.3.Funkcje użyteczności 16.4.Wieloatrybutowe funkcje użyteczności 16.5.Sieci decyzyjne 16.6.Wartość informacji 16.7.Nieznane preferencje 17Podejmowanie złożonych decyzji 17.1.Sekwencyjne problemy decyzyjne 17.2.Algorytmy dla problemów MDP 17.3.Problem bandyty i jego warianty 17.4.Częściowo obserwowalne problemy MDP (POMDP) 17.5.Algorytmy rozwiązywania problemów POMDP 18Podejmowanie decyzji w środowisku wieloagentowym 18.1.Właściwości środowisk wieloagentowych 18.2.Teoria gier niekooperatywnych 18.3.Teoria gier kooperatywnych 18.4.Kolektywne podejmowanie decyzji A Kompendium matematyczne A.l. Analiza złożoności i notacja „dużego O" A.2. Wektory, macierze i algebra liniowa A.3. Rozkłady prawdopodobieństwa A.4. Wybrane operacje na zbiorach B Konwencje notacyjne i pseudokod B.l. Definiowanie składni za pomocą notacji BNF B.2. Algorytmy w formie pseudokodu B.3. Uzupełniające materiały online
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153227 N (1 egz.)
Książka
W koszyku
Sztuczna inteligencja : nowe spojrzenie. T. 2 / Stuart Russell, Peter Norvig ; przekład: Andrzej Grażyński. - Gliwice : Helion, copyright 2023. - 467, [5] stron : fotografie, ilustracje, wykresy ; 23 cm.
Wydanie 4. odnosi się do oryginału. Na stronie 4. okładki także nazwa wydawcy oryginału: Pearson.
Bibliografia, netografia na stronach 417-457. Indeks.
Uczenie maszynowe Uczenie maszynowe z przykładowych danych 19.1.Formy uczenia maszynowego 19.2.Uczenie nadzorowane 19.3.Drzewa decyzyjne w uczeniu maszynowym 19.4.Selekcja modelu i optymalizacja 19.5.Teoria uczenia maszynowego 19.6.Regresja liniowa i klasyfikacja 19.7.Modele nieparametryczne 19.8.Uczenie zespołowe 19.9.Budowanie systemów uczenia maszynowego Uczenie modeli probabilistycznych 20.1.Uczenie statystyczne 20.2.Uczenie z kompletnych danych 20.3.Uczenie z ukrytymi zmiennymi: algorytm EM Głębokie uczenie 21.1.Proste sieci ze sprzężeniem w przód 21.2.Grafy obliczeniowe dla głębokiego uczenia 21.3.Konwolucyjne sieci neuronowe (CNN) 21.4.Algorytmy głębokiego uczenia 21.5.Generalizacja 21.6.Rekurencyjne sieci neuronowe (RNNj 21.7.Nienadzorowane uczenie transferowe 21.8.Zastosowania Uczenie ze wzmacnianiem 22.1.Uczenie się dla nagród 22.2.Pasywne uczenie ze wzmacnianiem 22.3.Aktywne uczenie ze wzmacnianiem 22.4.Generalizacja w uczeniu ze wzmacnianiem 22.5.Wyszukiwanie polityki 22.6.Uczenie praktykanckie i odwrotne uczenie ze wzmacnianiem 22.7.Zastosowania uczenia ze wzmacnianiem Komunikacja, percepcja i działanie Przetwarzanie języka naturalnego 23.1.Modele językowe 23.2.Gramatyka 23.3.Parsowanie 23.4.Gramatyki augmentowane 23.5.Komplikacje języków naturalnych 23.6.Zadania NLP Głębokie uczenie w przetwarzaniu języka naturalnego 24.1.Embeddingi słów 24.2.Rekurencyjne sieci neuronowe w NLP 24.3.Modele „sekwencja na sekwencję" 24.4.Architektura transformerów 24.5.Trenowanie wstępne i uczenie transferowe 24.6.Obecny stan sztuki Widzenie komputerowe 25.1.Formowanie obrazów 25.2.Podstawowe cechy obrazów 25.3.Klasyfikowanie obrazów 25.4.Wykrywanie obiektów 25.5.Rzeczywistość 3D 25.6.Widzenie komputerowe w praktyce Robotyka 26.1.Sprzęt robotów 26.2.Jakie rodzaje problemów rozwiązywać może robotyka? 26.3.Percepcja robotów 26.4.Planowanie i sterowanie 26.5.Planowanie ruchu w warunkach niepewności 26.6.Uczenie ze wzmacnianiem w robotyce 26.7.Ludzie i roboty 26.8.Alternatywne frameworki robotyczne 26.9.Domeny zastosowań robotyki Konkluzje 27Bezpieczeństwo oraz etyczne i filozoficzne aspekty sztucznej inteligencji 27.1.Granice sztucznej inteligencji 27.2.Czy maszyny mogą naprawdę myśleć? 27.3.Sztuczna inteligencja a etyka 28Przyszłość sztucznej inteligencji 28.1.Komponenty sztucznej inteligencji 28.2.Architektury sztucznej inteligencji
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153226 N (1 egz.)
Książka
W koszyku
Data science i uczenie maszynowe / Marcin Szeliga. - Warszawa : Wydawnictwo Naukowe PWN, 2017. - XXVI, [2], 371, [1] s. : il. ; 24 cm.
Zawiera polsko-angielski i angielsko-polski słownik terminów data science.
Bibliogr., netogr. s. 353-[359].
Dla studentów studiów stacjonarnych i zaocznych kierunków informatycznych, zarządzania i marketingu oraz osób zawodowo pracujących w tych dziedzinach.
O czym jest ta książka? Data science Uczenie maszynowe Dla kogo jest ta książka? Narzędzia Usługa Azure ML Język R Microsoft R Open Przykładowe dane Konwencje i oznaczenia 1. Uczenie maszynowe jako element eksperymentów data science 1.1. Eksploracja danych jako technika wspomagania decyzji 1.2. Modelowanie 1.3. Wiedza i proces uczenia 1.4. Hipotezy 1.5. Założenia eksperymentu data science 1.6. Dwa typy analiz 1.7. Data science jako metoda naukowa 1.8. Przykładowy eksperyment – optymalizacja kampanii marketingowej 1.8.1. Zrozumienie problemu i określenie celów eksperymentu 1.8.2. Zrozumienie danych 1.8.3. Wstępne przetwarzanie danych 1.8.4. Modelowanie 1.8.5. Ocena 1.8.6. Wdrożenie 2. Ocena przydatności danych 2.1. Dane źródłowe 2.2. Zmienne 2.2.1. Rozkład częstości zmiennych 2.2.2. Graficzna prezentacja danych 2.2.3. Korelacje (związki między zmiennymi) 2.3. Reprezentatywność danych 2.4. Duplikaty 2.5. Szeregi czasowe 3. Wstępne przetwarzanie danych 3.1. Uzupełnianie brakujących danych 3.2. Poprawianie błędnych danych 3.3. Zmienne numeryczne 3.3.1. Instalowanie dodatkowych bibliotek R w Azure ML 3.3.2. Wartości nietypowe (odstające) 3.3.3. Normalizacja 3.3.4. Dyskretyzacja 3.4. Zmienne kategoryczne 3.4.1. Problem jakości danych tekstowych 3.4.2. Uogólnienie (generalizacja) 3.4.3. Numerowanie stanów 3.4.4. Zmienne porządkowe 3.5. Szeregi czasowe 3.6. Wyrażenia języka naturalnego 3.7. Redukcja wymiarów 3.7.1. Usuwanie zmiennych na podstawie ich zdolności predykcyjnych 3.7.2. Analiza głównych składowych (PCA) 4. Wzbogacanie danych 4.1. Równoważenie danych 4.1.1. Usunięcie części przykładów większościowych 4.1.2. Nadpróbkowanie 4.2. Zmienne wyliczeniowe 4.3. Zastąpienie zmiennych wspólnym rozkładem prawdopodobieństwa 4.4. Wydzielenie danych testowych 4.4.1. Szeregi czasowe 4.4.2. Modele rekomendujące 4.4.3. Modele wykrywania oszustw 4.5. Wzorzec eksperymentu data science 5. Klasyfikacja 5.1. Klasyfikacja poprzez indukcję drzew decyzyjnych 5.1.1. Drzewa decyzyjne – definicja 5.1.2. Pojedyncze drzewa decyzyjne 5.1.3. Kombinacje drzew decyzyjnych 5.2. Klasyfikacja z użyciem maszyny wektorów nośnych 5.2.1. Przetwarzanie języka naturalnego przy użyciu maszyny wektorów nośnych 5.2.2. Modele maszyny wektorów nośnych i lokalnie głębokiej maszyny wektorów nośnych 5.3. Klasyfikacja probabilistyczna 5.3.1. Sieć Bayesa 5.3.2. Maszyna punktów Bayesa 5.4. Inne klasyfikatory dostępne w Studiu Azure ML 5.4.1. Inne klasyfikatory – omówienie 5.4.2. Modele eksploracji danych w języku R 5.5. Klasyfikatory binarne a klasyfikacja wieloklasowa 5.6. Wykrywanie oszustw jako przykład klasyfikacji binarnej 5.6.1. Oznaczenie obserwacji 5.6.2. Zrównoważenie danych i wydzielenie danych testowych 5.6.3. Wzbogacenie danych 6. Regresja 6.1. Model regresji wielorakiej 6.1.1 Wieloraka regresja liniowa 6.1.2. Estymacja bayesowska modelu regresji liniowej 6.2. Zmienne kategoryczne w modelach regresji 6.2.1. Regresja Poissona 6.2.2. Regresja porządkowa 6.3. Regresja kwantylowa 6.4. Regresja poprzez indukcję drzew decyzyjnych 6.5. Sztuczne sieci neuronowe 6.5.1. Perceptron 6.5.2. Sieci neuronowe a regresja 6.5.3. Metody minimalizacji błędu 6.5.4. Wsteczna propagacja błędów 6.5.5. Regresja z użyciem sieci neuronowej 6.5.6. Głębokie sieci neuronowe 7. Grupowanie (analiza skupień) 7.1. Na czym polega grupowanie 7.2. Algorytmy grupowania 7.2.1. Grupowanie hierarchiczne 7.2.2. Grupowanie iteracyjno-optymalizacyjne 7.3. Grupowanie w celu znajdowania podobnych obiektów 7.4. Grupowanie w celu kompresji 7.5. Wykrywanie anomalii 8. Rekomendowanie 8.1. Systemy rekomendujące 8.2. Odkrywanie asocjacji 8.3. Model Matchbox Recommender 8.3.1. Rekomendowanie przez filtrowanie kolektywne 8.3.2. Rekomendowanie przez filtrowanie cech przedmiotów i użytkowników (hybrydowe) 9. Prognozowanie 9.1. Szeregi czasowe 9.2. Naiwne metody prognozowania 9.3. Modele średniej ważonej 9.4. Modele ARIMA 9.5. Modele nieliniowe 9.6. Prognozowanie w Studiu Azure ML 10. Ocena i poprawa jakości modeli 10.1. Reguła powrotu do średniej 10.2. Kryteria oceny modeli eksploracji danych 10.2.1. Łatwość interpretacji 10.2.2. Trafność 10.2.3. Wiarygodność 10.2.4. Wydajność i skalowalność 10.2.5. Przydatność 10.3. Ocena jakości modeli klasyfikacyjnych 10.3.1. Moduł Evaluate Model 10.3.2. Macierz pomyłek 10.3.3. Krzywa ROC 10.3.4. Wykres precyzja w funkcji czułości i wykres zysku 10.3.5. Trafność klasyfikacji 10.3.6. Klasyfikatory wieloklasowe 10.4. Ocena jakości modeli regresyjnych 10.4.1. Miary oceny modeli 10.4.2. Walidacja krzyżowa 10.5. Ocena jakości modeli grupujących 10.6. Ocena jakości modeli rekomendujących 10.7. Ocena jakości modeli prognozujących 10.8. Porównanie jakości modeli 10.9. Poprawa jakości modeli 10.9.1. Automatyczna poprawa jakości modeli uczenia nadzorowanego 10.9.2. Znalezienie optymalnej liczby klastrów 10.10. Cykl życia eksperymentu data science 11. Publikacja modeli eksploracji danych jako usług WWW 11.1. Wzorcowy eksperyment data science 11.2. Predykcyjne usługi WWW 11.2.1. Zapytania predykcyjne ad-hoc 11.2.2. Wsadowe zapytania predykcyjne
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 144353 (1 egz.)
Książka
W koszyku
Praktyczne uczenie maszynowe / Marcin Szeliga ; [recenzent Tadeusz Wieczorek (Politechnika Śląska)]. - Wydanie 1. - Warszawa : PWN, 2019. - XIV, 466, [1] strona : ilustracje, wykresy ; 24 cm.
Bibliografia, netografia na stronach 463-466.
Dla studentów kierunków informatycznych, analityków, programistów, administratorów baz danych i statystyków.
1.Narzędzia 1.1.Język Python 1.2.Język R 1.2.1.Microsoft R Open (MRO) 1.2.2.Microsoft R Client (MRC) 1.2.3.Microsoft Machine Learning Server (MLS) 1.3.SQL Server 2019 1.3.1.Instalacja 1.3.2.Microsoft SQL Server Machine Learning Services 1.3.3.Bezpieczeństwo 1.3.4.Wydajność 1.4.PyCharm Community Edition 1.5.RStudio Desktop 1.6.Instalacja dodatkowych pakietów 1.7.Power BI Desktop 2.Praca z SQL Server Machine Learning Services 2.1.Wykrywanie oszustw 2.2.Klasyfikacja przejazdów 2.3.Dodatkowe funkcjonalności serwera SQL Server i usługi SQL Machine Learning Services 2.3.1.Zapytania predykcyjne czasu rzeczywistego 2.3.2.Natywne zapytania predykcyjne 2.3.3.Tworzenie modeli dla partycji danych 3.Wstęp do uczenia maszynowego 3.1.Rodzaje uczenia maszynowego 3.2.Proces uczenia 3.3.Modele regresji 3.4.Modele partycjonujące 3.5.Metodyka CRISP-DM 3.6.Metodyka TDSP 4.Zrozumienie danych 4.1.Poznanie danych wymaga zrozumienia postawionego problemu 4.2.Statystyki opisowe 4.2.1.Zmienne numeryczne 4.2.2.Zmienne kategoryczne 4.3.Brakujące dane 4.4.Entropia 4.5.Ocena zmiennych za pomocą programu Power BI 4.6.Ocena zmiennych przy użyciu języka SQL 4.6.1. Automatyczny opis zmiennych 4.7.Wizualizacja zmiennych 4.8.Reprezentatywność danych 4.9.Korelacje między zmiennymi 4.9.1.Klątwa wymiarowości 4.9.2.Ocena przydatności zmiennych 4.9.3.Dwie zmienne numeryczne 4.9.4.Dwie zmienne kategoryczne 4.9.5.Dwie zmienne porządkowe 4.9.6.Zmienna kategoryczna i numeryczna 4.9.7.Korelacja oznacza współwystępowanie, a nie związek przyczynowo-skutkowy 4.10.Ocena korelacji za pomocą programu Power BI 4.11.Ocena korelacji przy użyciu języka SQL 5.Przygotowanie danych 5.1.Uporządkowanie danych 5.2.Wzbogacanie danych 5.2.1. Data i czas 5.3.Wyczyszczenie danych 5.3.1.Usuwanie brakujących wartości 5.3.2.Usuwanie duplikatów 5.3.3.Usuwanie błędnych danych 5.3.4.Usuwanie wartości odstających 5.4.Przekształcenie danych 5.4.1.Kodowanie 5.4.2.Generalizacja 5.4.3.Zaokrąglanie 5.4.4.Dyskretyzacja 5.4.5.Skalowanie 5.4.6.Wygładzanie 5.5.Redukcja danych 5.5.1.Selekcja zmiennych 5.5.2.Analiza składowych głównych 5.5.3.Wybór zmiennych przydatnych dla modelu 5.6.Podział danych 5.6.1.Podział warstwowy 5.6.2.Równoważenie danych 5.6.3.k-krotna walidacja krzyżowa 5.7.Danych walidacyjnych używa się do optymalizacji, a nie do oceny modeli 5.8.Kto miał szansę przeżyć katastrofę Titanica? 6.Analiza skupień 6.1.Grupowanie w celu zmniejszenia liczby przykładów 6.2.Algorytmy iteracyjno-optymalizacyjne 6.3.Segmentacja 7.Regresja 7.1.Zrozumienie problemu 7.2.Zrozumienie danych 7.3.Opisanie danych 7.4.Ocena przydatności danych 7.5.Wzbogacenie danych 7.6.Ocena zmiennych 7.7.Przekształcenie i wybór danych 7.8.Modelowanie 7.8.1.Uczenie na błędach 7.8.2.Regresja liniowa 7.8.3.Ogólny model liniowy CLM 7.8.4.Sztuczne sieci neuronowe 7.8.5.Drzewa regresyjne 7.8.6.Kombinacje modeli 7.9.Porównanie modeli 7.10.Wdrożenie modeli po stronie serwera SQL 8.Klasyfikacja 8.1.Klasyfikacja binarna 8.1.1.Przygotowanie danych 8.1.2.Regresja logistyczna 8.1.3.Sztuczne sieci neuronowe 8.1.4.Klasyfikacja przez indukcję drzew decyzyjnych 8.1.5.Kombinacje modeli 8.1.6.Porównanie modeli 8.1.7.Wdrożenie modeli po stronie serwera SQL 8.2.Klasyfikacja wieloklasowa 8.2.1.Przygotowanie danych 8.2.2.Regresja logistyczna 8.2.3.Sztuczne sieci neuronowe 8.2.4.Klasyfikacja przez indukcję drzew decyzyjnych 8.2.5.Porównanie modeli 8.2.6.Wdrożenie modeli po stronie serwera SQL 9.Ocena modeli 9.1.Nie ma darmowego lunchu 9.2.Błędy modeli predykcyjnych 9.2.1. Błąd systematyczny i błąd aproksymacji 9.3.Kryteria oceny modeli regresji 9.3.1.Średni błąd bezwzględny 9.3.2.Pierwiastek błędu średniokwadratowego 9.3.3.Znormalizowany błąd bezwzględny 9.3.4.Znormalizowany błąd kwadratowy 9.3.5.Współczynnik determinacji R2 9.3.6.Ocena modelu prognozującego pozostały czas bezawaryjnej pracy urządzeń 9.4.Kryteria oceny modeli klasyfikacji binarnej 9.4.1.Macierz błędów 9.4.2.Trafność 9.4.3.Precyzja 9.4.4.Czułość 9.4.5.F-miara 9.4.6.Współczynnik Kappa Cohena 9.4.7.Krzywa ROC i obszar pod krzywą 9.4.8.Ocena modelu klasyfikującego urządzenia jako wymagające lub niewymagające przeglądu 9.5.Kryteria oceny modeli klasyfikacji wieloklasowej 9.5.1.Macierz błędów 9.5.2.Metryki klasy większościowej 9.5.3.Metryki poszczególnych klas 9.5.4. Średnie makro 9.5.5. Średnie mikro 9.6.Ocena modelu klasyfikującego urządzenia do przeglądu 9.7.Interpretacja predykcji 10.Optymalizacja i wdrożenie modeli 10.1.Zrozumienie problemu 10.2.Zrozumienie i przygotowanie danych 10.2.1.Import danych 10.2.2.Ocena danych 10.3.Modelowanie 10.4.Optymalizacja 10.5.Wdrożenie 10.5.1. Analiza typu Co by było, gdyby?
Sygnatura czytelni BWEAiI: XII Ą 97
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 148527, 148529 (2 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148526 N (1 egz.)
Książka
W koszyku
Głębokie uczenie : wprowadzenie / Jacek Tabor, Marek Śmieja, Łukasz Struski, Przemysław Spurek, Maciej Wołczyk. - Gliwice : Helion, copyright 2022. - 179 stron : fotografie, ilustracje, wykresy ; 24 cm.
Bibliografia na stronach 177-179.
1Wprowadzenie do uczenia maszynowego 2.1Analiza modelu i funkcja kosztu 2.2Minimalizacja funkcji kosztu 3Uczenie nienadzorowane 3.1Klastrowanie: k-means 3.2Redukcja wymiarowości: PCA 3.3Estymacja gęstości 4Uczenie nadzorowane: regresja 4.1Regresja liniowa 4.2Zanurzenie 4.3Ewaluacja modelu nadzorowanego 5Uczenie nadzorowane: klasyfikacja 5.1Wprowadzenie do klasyfikacji 5.2Klasyfikacja binarna: SVM 5.3Klasyfikacja wieloklasowa: regresja logistyczna 5.4Ocena modelu klasyfikacji 5.5Klasyfikacja niezbalansowania 5.6Konstrukcja funkcji kosztu w problemach regresyjnych 6Metody kernelowe 6.1Wprowadzenie do metod kernelowych 6.2Praktyczne użycie skernelizowanych metod 6.3Porównywanie próbek i rozkładów: MMD 7Wprowadzenie do sieci neuronowych 7.1Budowa sieci neuronowych 7.2Klasyfikacja nieliniowa: spojrzenie geometryczne 7.3Uczenie sieci neuronowej na przykładzie regresji 7.4Teoria a praktyka w sieciach neuronowych 8Trenowanie sieci neuronowych 8.1Problem klasyfikacyjny 8.2Optymalizacja za pomocą metody spadku gradientu 8.3Optymalizator Adam 8.4Regularyzacja i augmentacje 8.5Moja sieć neuronowa nie działa: poradnik 9Wprowadzenie do sieci konwolucyjnych 9.1Przetwarzanie obrazów na pomocą sieci fully-connected 9.2Filtry konwolucyjne 9.3Sieci konwolucyjne 10Sieci konwolucyjne w praktyce 10.1Początki sieci konwolucyjnych 10.2Techniki regularyzacyjne 10.3Połączenia rezydualne: ResNet 10.4Wybrane architektury CNN 10.5Finetuning: dostrajanie modelu do nowych zadań 10.6Segmentacja obrazów: U-Net 11Głębokie modele nienadzorowane 11.1Nienadzorowana reprezentacja danych 11.2Modele generatywne: GANy 11.3Estymacja gęstości: invertible normalizing flows 12Rekurencyjne sieci neuronowe 12.1Wprowadzenie do danych sekwencyjnych 12.2Rekurencja jako model autoregresywny 12.3Sieci rekurencyjne (RNN) 12.4Model Seq2Seq 12.5Zaawansowane modele sieci rekurencyjnych 13Atencja 13.1Mechanizm atencji 13.2Atencja w modelu Seq2Seq 13.3Self-attention 13.4Self-attention GAN 13.5Transformer jako rozwinięcie self-atencji
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153016 N (1 egz.)
Brak okładki
Książka
W koszyku
(Problemy Współczesnej Informatyki)
Bibliografia, netografia na stronach 197-221.
I. Metody ekstrakcji bazujące na składowych głównych 3. Modyfikacja metody składowych głównych uwzględniająca rotację czynników wg centroidów klas 4. Zastosowanie metody gradientów stochastycznych do szacowania składowych głównych 5. Zastosowanie metody składowych głównych w zadaniu imputacji danych II. Metody ekstrakcji cech sygnałów o charakterystyce czasowej oraz dwuwymiarowych 6. Metoda szacowania liczby cech i komponentów w analizie składowych głównych 7. Model fuzji gradientów stochastycznych i składowych głównych w zadaniu ekstrakcji cech obrazu 8. Zastosowanie transformaty falkowej oraz analizy składowych niezależnych w zadaniu ekstrakcji cech sygnałów III Zastosowanie metod inżynierii cech w zadaniu optymalizacji wielokryterialnej 9. Statystyczne metody zwiększania mocy dyskryminacyjnej w zadaniu ekstrakcji cech w ujęciu metaheurystyk 10. Ekstrakcja cech z wykorzystaniem zmodyfikowanego wielokryterialnego algorytmu genetycznego 11. Zastosowanie metod optymalizacji wielkryterialnej do budowy zespołów klasyfikatorów
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 154403 N, 154402 N (2 egz.)
Brak okładki
Książka
W koszyku
(Prace Naukowe Instytutu Informatyki, Automatyki i Robotyki Politechniki Wrocławskiej. Monografie = Scientific Papers of the Insitute of Computer Engineering, Control and Robotics of the Wrocław University of Technology. Monographs, ISSN 0324-9786 ; 29 Sygn. P 609/C 40926.)
W serii gł.: nr 105.
Bibliogr. s. 199-219. Indeks.
Książka
W koszyku
Podstawy sztucznej inteligencji / Paweł Wawrzyński. - Wydanie 2. - Warszawa : Oficyna Wydawnicza Politechniki Warszawskiej, 2019. - 161 stron : ilustracje, wykresy ; 24 cm.
Bibliografia na stronach 160-161.
1. Wprowadzenie 1.1. Definicja sztucznej inteligencji 1.2. Działy sztucznej inteligencji 1.3. Historia sztucznej inteligencji I Wnioskowanie logiczne i systemy eksperckie 2. Systemy wnioskujące oparte na logice zdań 2.1. Semantyka zdań 2.2. Zdania złożone 2.3. Klauzule i sprowadzanie wiedzy do zbioru klauzul 2.4. Wnioskowanie w przód 2.5. Wnioskowanie wstecz 2.6. Wnioskowanie przez rezolucję i zaprzeczenie 3. Systemy posługujące się logiką predykatów 3.1. Język 3.2. Wiedza w postaci klauzul 3.3. Podstawianie i unifikacja 3.4. Wnioskowanie w przód 3.5. Wnioskowanie wstecz 3.6. Wnioskowanie przez rezolucję i zaprzeczenie 3.7. Poprawność wnioskowania 4. Logika rozmyta 4.1. Zbiory rozmyte 4.2. Rozmyte spójniki 4.3. Rozmyte reguły 4.4. Wyostrzanie 4.5. Konstrukcja systemu rozmytego 5. Systemy eksperckie 5.1. Tryby wnioskowania 5.2. Szkieletowe systemy eksperckie 5.3. Historyczne przykłady znaczących systemów eksperckich II Przeszukiwanie 6. Algorytmy ewolucyjne 6.1. Ogólna idea i stosowana terminologia 6.2. Algorytm (1 + 1) 6.3. Algorytmy i strategie ewolucyjne 6.4. Algorytmy ewolucyjne w praktyce 7. Algorytmy genetyczne 7.1. Ogólny algorytm genetyczny 7.2. Kodowanie osobników 7.3. Reprodukcja 8. Przeszukiwanie przestrzeni stanów 8.1. Strategie nieinformowane 8.2. Strategie minimalizujące koszt 8.3. Strategie heurystyczne 9. Gry dwuosobowe 9.1. Model 9.2. Przegląd wyczerpujący 9.3. Strategia MIN-MAX 9.4. Przycinanie a-/3 9.5. Inne techniki poprawiania efektywności gry III Uczenie maszynowe 10. Sztuczne sieci neuronowe 10.1. Zagadnienie parametrycznej aproksymacji funkcji 10.2. Perceptron dwuwarstwowy i wielowarstwowy 10.3. Aproksymacja na zbiorze skończonym 10.4. Aproksymacja na zbiorze nieskończonym 11. Uczenie się ze wzmocnieniem 11.1. Proces Decyzyjny Markowa 11.2. Algorytmy Q-Learning i SARSA 11.3. Rozszerzenie algorytmów Q-Learning i SARSA do ciągłych przestrzeni stanów i decyzji
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. S 73943 (1 egz.)
Książka
W koszyku
Uczące się systemy decyzyjne / Paweł Wawrzyński. - Wydanie I. - Warszawa : Oficyna Wydawnicza Politechniki Warszawskiej, 2021. - 248 stron : ilustracje, wykresy ; 24 cm.
Bibliografia na stronach 245-248.
1.1. Przykłady zagadnień, w których pojawia się potrzeba adaptacji i uczenia się 1.3. Dziedziny składające się na zawartość podręcznika 1.4. Adaptacja i uczenie się jako droga do inteligentnego zachowania się maszyn i programów 1.5. Organizacja podręcznika 1.6. Potrzebna wiedza wstępna 2. Optymalizacja stochastyczna 2.1. Algorytm gradientu prostego 2.2. Procedura Stochastycznego Najszybszego Spadku, SGD 3. Aproksymacja funkcji i podstawowe mechanizmy adaptacji 3.1. Aproksymatory i zagadnienie aproksymacji 3.2. Zagadnienie uczenia na zbiorze nieskończonym, on-line 3.3. Perceptron wielowarstwowy 3.4. Uczenie się przy użyciu aproksymacji stochastycznej 3.5. Zagadnienia praktyczne związane z używaniem sieci neuronowych w systemach uczących się 4. Proces Decyzyjny Markowa i programowanie dynamiczne 4.1. Proces Decyzyjny Markowa 4.2. Funkcja wartości-akcji i indukowanie strategii 4.3. Klasyczny algorytm programowania dynamicznego 4.4. Programowanie dynamiczne w algorytmice 4.5. Algorytm Iteracji Strategii 4.6. Algorytm Iteracji Funkcji Wartości II. Uczenie się ze wzmocnieniem 5.1. Nieznany z góry Proces Decyzyjny Markowa 5.2. Algorytmy Q-Learning i SARSA 5.3. Rozszerzenie algorytmów Q-Learning i SARSA do ciągłych przestrzeni stanów i akcji 6. Optymalizacja stochastycznego wyboru 6.1. Parametryzowane rozkłady prawdopodobieństwa 6.2. Algorytm REINFORCE punktowy 6.3. Stacjonarna strategia decyzyjna 6.4. Algorytm REINFORCE statyczny 6.5. Algorytm REINFORCE epizodyczny 7. Algorytm Aktor-Krytyk 7.1. Idea algorytmu Aktor-Krytyk 7.2. Klasyczny Aktor-Krytyk 7.3. Aktor-Krytyk(A) 8. Aktor-Krytyk z kompatybilną aproksymacją 8.1. Optymalizacja średniej nagrody 8.2. Gradient strategii 8.3. Aktor-Krytyk z kompatybilną aproksymacją 8.4. Naturalny Aktor-Krytyk 8.5. Dyskonto - ograniczenie wariancji estymatora gradientu 9. Wielokrotne przetwarzanie obserwacji 9.1. Algorytm Q-Learning z powtarzaniem doświadczenia 9.2. Próbkowanie istotnościowe 9.3. Algorytm Aktor-Krytyk z powtarzaniem doświadczenia 9.4. Optymalizacja estymatora wskaźnika jakości 10. Algorytmy wzbogacone 10.1. Asynchronous Advantage Actor-Critic 10.2. Prozimal Policy Optimization 10.3. Deep Deterministic Policy Gradient 10.4. Soft Actor-Critic 11. Gęsta dyskretyzacja czasu 11.1. Strategia z autoskorelowanymi akcjami 11.2. Actor-Critic with Experien.ee Replay and Autocorrelated aCtions 12. Uczenie się w warunkach częściowo obserwowalnego stanu 12.1. Rekurencyjne sieci neuronowe 12.2. Deep Recurrent Q-Learning 13. Wieloagentowe uczenie się ze wzmocnieniem 13.1. Model synchroniczny niekooperacyjny z częściowo obserwowanym stanem 13.2. Multi-Agent Deep Deterministic Policy Gradient III. Sterowanie adaptacyjne 14. Obiekty dynamiczne 14.1. Wstęp 14.2. Liniowe obiekty SISO 14.3. Dyskretna aproksymacja obiektów o ciągłej dynamice 15. Stabilność i funkcja Lapunowa 15.1. Ogólna postać typowego schematu adaptacji 15.2. Stabilność 15.3. Funkcja Lapunowa 15.4. Stabilność w kontekście funkcji Lapunowa 16. Sterowanie adaptacyjne z modelem referencyjnym 16.1. Liniowy obiekt SISO pierwszego rzędu 16.2. Uogólnienie 16.3. Obiekty liniowe wyższych rzędów 17. Zaawansowane schematy adaptacji 17.1. Obiekty o nieliniowej dynamice 17.2. Obiekty z nieobserwowalnymi pochodnymi stanu 18. Samostrojące się regulatory 18.1. Dynamika liniowo parametryzowalna 18.2. Liniowe najmniejsze kwadraty 18.3. Najmniejsze kwadraty z wykładniczym zapominaniem 18.4. Adaptacyjny dobór współczynnika zapominania IV. Inne podejścia do adaptacji 19. Aproksymowane programowanie dynamiczne 20. Stochastyczne sterowanie adaptacyjne 21. Sterowanie z iteracyjnym uczeniem się 22. Filtr Kalmana 22.1. Model 22.2. Algorytm 22.3. Wyprowadzenia 22.4. Rozszerzony Filtr Kalmana
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 152291 (1 egz.)
Książka
W koszyku
Tytuł oryginału: Deep learning from scratch : building with Python from first principles.
Na okładce i stronie tytułowej nazwa wydawcy oryginału: O'Reilly.
1. Podstawowe zagadnienia 15 Funkcje 16 Matematyka 16 Diagramy 16 Kod 17 Pochodne 20 Matematyka 20 Diagramy 20 Kod 21 Funkcje zagnieżdżone 22 Diagram 22 Matematyka 22 Kod 23 Inny diagram 23 Reguła łańcuchowa 24 Matematyka 24 Diagram 24 Kod 25 Nieco dłuższy przykład 27 Matematyka 27 Diagram 27 Kod 28 Funkcje z wieloma danymi wejściowymi 29 Matematyka 30 Diagram 30 Kod 30 Pochodne funkcji z wieloma danymi wejściowymi 31 Diagram 31 Matematyka 31 Kod 32 Funkcje przyjmujące wiele wektorów jako dane wejściowe 32 Matematyka 33 Tworzenie nowych cech na podstawie istniejących 33 Matematyka 33 Diagram 33 Kod 34 Pochodne funkcji z wieloma wektorami wejściowymi 35 Diagram 35 Matematyka 36 Kod 36 Następny etap - funkcje wektorowe i ich pochodne 37 Diagram 37 Matematyka 37 Kod 38 Funkcje wektorowe i ich pochodne w kroku wstecz 38 Grafy obliczeniowe z danymi wejściowymi w postaci dwóch macierzy dwuwymiarowych 40 Matematyka 41 Diagram 43 Kod 43 Ciekawa część - krok wstecz 43 Diagram 44 Matematyka 44 Kod 46 2. Wprowadzenie do budowania modeli 51 Wstęp do uczenia nadzorowanego 52 Modele uczenia nadzorowanego 53 Regresja liniowa 55 Regresja liniowa - diagram 55 Regresja liniowa - bardziej pomocny diagram (i obliczenia matematyczne) 57 Dodawanie wyrazu wolnego 58 Regresja liniowa - kod 58 Uczenie modelu 59 Obliczanie gradientów - diagram 59 Obliczanie gradientów - matematyka (i trochę kodu) 60 Obliczanie gradientów - (kompletny) kod 61 Używanie gradientów do uczenia modelu 62 Ocena modelu - testowe i treningowe zbiory danych 63 Ocena modelu - kod 63 Analizowanie najważniejszej cechy 65 Budowanie sieci neuronowych od podstaw 66 Krok 1. Zestaw regresji liniowych 67 Krok 2. Funkcja nieliniowa 67 Krok 3. Inna regresja liniowa 68 Diagramy 68 Kod 70 Sieci neuronowe - krok wstecz 71 Uczenie i ocena pierwszej sieci neuronowej 73 Dwa powody, dla których nowy model jest lepszy 74 3. Deep learning od podstaw 77 Definicja procesu deep learning - pierwszy krok 77 Elementy sieci neuronowych - operacje 79 Diagram 79 Kod 80 Elementy sieci neuronowych - warstwy 82 Diagramy 82 Elementy z elementów 84 Wzorzec warstwy 86 Warstwa gęsta 88 Klasa NeuralNetwork (i ewentualnie inne) 89 Diagram 89 Kod 90 Klasa Loss 90 Deep learning od podstaw 92 Implementowanie treningu na porcjach danych 92 Klasa NeuralNetwork - kod 93 Nauczyciel i optymalizator 95 Optymalizator 95 Nauczyciel 97 Łączenie wszystkich elementów 98 Pierwszy model z dziedziny deep learning (napisany od podstaw) 99 4. Rozszerzenia 101 Intuicyjne rozważania na temat sieci neuronowych 102 Funkcja straty - funkcja softmax z entropią krzyżową 104 Komponent nr 1. Funkcja softmax 104 Komponent nr 2. Entropia krzyżowa 105 Uwaga na temat funkcji aktywacji 108 Eksperymenty 111 Wstępne przetwarzanie danych 111 Model 112 Eksperyment: wartość straty z użyciem funkcji softmax z entropią krzyżową 113 Współczynnik momentum 113 Intuicyjny opis współczynnika momentum 114 Implementowanie współczynnika momentum w klasie Optimizer 114 Eksperyment - algorytm SGD ze współczynnikiem momentum 116 Zmniejszanie współczynnika uczenia 116 Sposoby zmniejszania współczynnika uczenia 116 Eksperymenty - zmniejszanie współczynnika uczenia 118 Inicjowanie wag 119 Matematyka i kod 120 Eksperymenty - inicjowanie wag 121 Dropout 122 Definicja 122 Implementacja 122 Eksperymenty - dropout 123 5. Konwolucyjne sieci neuronowe 127 Sieci neuronowe i uczenie reprezentacji 127 Inna architektura dla danych graficznych 128 Operacja konwolucji 129 Wielokanałowa operacja konwolucji 131 Warstwy konwolucyjne 131 Wpływ na implementację 132 Różnice między warstwami konwolucyjnymi a warstwami gęstymi 133 Generowanie predykcji z użyciem warstw konwolucyjnych - warstwa spłaszczania 134 Warstwy agregujące 135 Implementowanie wielokanałowej operacji konwolucji 137 Krok w przód 137 Konwolucja - krok wstecz 140 Porcje danych, konwolucje dwuwymiarowe i operacje wielokanałowe 144 Konwolucje dwuwymiarowe 145 Ostatni element - dodawanie kanałów 147 Używanie nowej operacji do uczenia sieci CNN 150 Operacja Flatten 150 Kompletna warstwa Conv2D 151 Eksperymenty 152 6. Rekurencyjne sieci neuronowe 155 Najważniejsze ograniczenie - przetwarzanie odgałęzień 156 Automatyczne różniczkowanie 158 Pisanie kodu do akumulowania gradientów 158 Powody stosowania sieci RNN 162 Wprowadzenie do sieci RNN 163 Pierwsza klasa dla sieci RNN - RNNLayer 164 Druga klasa dla sieci RNN - RNNNode 165 Łączenie obu klas 166 Krok wstecz 167 Sieci RNN - kod 169 Klasa RNNLayer 170 Podstawowe elementy sieci RNNNode 172 Zwykłe węzły RNNNode 173 Ograniczenia zwykłych węzłów RNNNode 175 Pierwsze rozwiązanie - węzły GRUNode 176 Węzły LSTMNode 179 Reprezentacja danych dla opartego na sieci RNN modelu języka naturalnego na poziomie znaków 182 Inne zadania z obszaru modelowania języka naturalnego 182 Łączenie odmian warstw RNNLayer 183 Łączenie wszystkich elementów 184 7. PyTorch 187 Typ Tensor w bibliotece PyTorch 187 Deep learning z użyciem biblioteki PyTorch 188 Elementy z biblioteki PyTorch - klasy reprezentujące model, warstwę, optymalizator i wartość straty 189 Implementowanie elementów sieci neuronowej za pomocą biblioteki PyTorch - warstwa DenseLayer 190 Przykład - modelowanie cen domów w Bostonie z użyciem biblioteki PyTorch 191 Elementy oparte na bibliotece PyTorch - klasy optymalizatora i wartości straty 192 Elementy oparte na bibliotece PyTorch - klasa nauczyciela 193 Sztuczki służące do optymalizowania uczenia w bibliotece PyTorch 195 Sieci CNN w bibliotece PyTorch 196 Klasa DataLoader i transformacje 198 Tworzenie sieci LSTM za pomocą biblioteki PyTorch 200 Postscriptum - uczenie nienadzorowane z użyciem autoenkoderów 202 Uczenie reprezentacji 203 Podejście stosowane w sytuacjach, gdy w ogóle nie ma etykiet 203 Implementowanie autoenkodera za pomocą biblioteki PyTorch 204 Trudniejszy test uczenia nienadzorowanego i rozwiązanie 209 A. Skok na głęboką wodę 211 Reguła łańcuchowa dla macierzy 211 Gradient dla wartości straty względem wyrazu wolnego 215 Konwolucje z użyciem mnożenia macierzy 215
Sygnatura czytelni BWEAiI: XII Ł 175
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149871 N (1 egz.)
Książka
W koszyku
W książce także ISBN oryginału.
Część I. Podstawowe pojęcia z obszaru matematyki dyskretnej Część II. Zastosowania matematyki dyskretnej w analizie danych i informatyce Część III. Praktyczne zastosowania matematyki dyskretnej Co zrobić, aby jak najlepiej wykorzystać tę książkę Kody źródłowe Konwencje typograficzne przyjęte w tej książce I. Podstawowe pojęcia z obszaru matematyki dyskretnej 1. Podstawowe pojęcia, notacja, teoria mnogości, relacje i funkcje Czym jest matematyka dyskretna? Podstawowa teoria mnogości Definicja zbiory i ich notacja Definicja elementy zbiorów Definicja zbiór pusty Przykład kilka przykładowych zbiorów Definicja podzbiory i nadzbiory Definicja notacja konstrukcji zbiorów Przykład użycie notacji konstrukcji zbiorów Definicja podstawowe operacje na zbiorach Definicja zbiory rozłączne Przykład liczby parzyste i nieparzyste Twierdzenie prawa De Morgana Dowód Przykład prawo De Morgana Definicja moc zbioru Przykład moce zbiorów Funkcje i relacje Definicja relacje, dziedziny i przeciwdziedziny Definicja funkcje Przykłady relacje kontra funkcje Przykład funkcje w algebrze elementarnej Przykład funkcje w Pythonie i funkcje matematyczne 2. Logika formalna i dowody matematyczne Logika formalna i dowodzenie za pomocą tablic prawdy Podstawy terminologii stosowanej w logice formalnej Przykład niepoprawny argument Przykład wszystkie pingwiny mieszkają w RPA! Podstawowe idee logiki formalnej Tablice prawdy Przykład implikacja odwrotna Przykład prawo przechodniości implikacji Przykład prawa De Morgana Przykład implikacja przeciwstawna Dowody wprost Przykład iloczyn parzystych i nieparzystych liczb całkowitych Przykład pierwiastki liczb parzystych Skrócenie dowodu za pomocą implikacji przeciwstawnej Dowody nie wprost Przykład czy istnieje najmniejsza dodatnia liczba wymierna? Przykład dowód, że 2 jest liczbą niewymierną Przykład ile jest liczb pierwszych? Dowodzenie przez indukcję matematyczną Przykład suma 1+2+...+n Przykład kształty wypełniające przestrzeń Przykład wzrost wykładniczy a wzrost w tempie silni 3. Obliczenia w systemach o podstawie n Zrozumieć liczby o podstawie n Przykład liczby dziesiętne Definicja liczby o podstawie n Konwersje między różnymi podstawami Konwersja liczb o podstawie n na liczby dziesiętne Przykład wartość dziesiętna liczby o podstawie 6 Konwersja z zapisu dziesiętnego na system o podstawie n Przykład konwersja liczby dziesiętnej na liczbę binarną (podstawa 2) Przykład konwersje z systemu dziesiętnego na binarny i szesnastkowy w Pythonie Liczby binarne i ich zastosowania Algebra Boolea Operator AND Operator OR Operator NOT Przykład użytkownicy Netfliksa Liczby szesnastkowe i ich zastosowanie Przykład położenie obiektów w pamięci komputera Przykład wyświetlanie komunikatów o błędach Przykład adresy MAC Przykład kolory w sieci 4. Kombinatoryka z użyciem SciPy Podstawy zliczania Definicja iloczyn kartezjański Twierdzenie moc iloczynów kartezjańskich zbiorów skończonych Definicja iloczyn kartezjański n zbiorów Twierdzenie reguła mnożenia Przykład bajty Przykład kolory w komputerze Permutacje i kombinacje obiektów Definicja permutacja Przykład permutacje prostego zbioru Twierdzenie permutacje zbioru Przykład playlista Wzrost w tempie silni Twierdzenie wariacja bez powtórzeń Definicja kombinacja Przykład kombinacje kontra permutacje prostego zbioru Twierdzenie kombinacje ze zbioru Współczynniki dwumianowe Przykład tworzenie zespołu Przykład kombinacje kul Alokacja pamięci Przykład wstępne przydzielanie pamięci Skuteczność algorytmów siłowych Przykład szyfr Cezara Przykład problem komiwojażera 5. Elementy prawdopodobieństwa dyskretnego Definicja doświadczenie losowe Definicje zdarzenia elementarne, zdarzenia losowe, przestrzenie prób Przykład rzut monetą Przykład rzut wieloma monetami Definicja miara probabilistyczna Twierdzenie podstawowe własności prawdopodobieństwa Dowód Przykład sport Twierdzenie monotoniczność Dowód Twierdzenie zasada włączeń i wyłączeń Dowód Definicja rozkład jednostajny Twierdzenie obliczanie prawdopodobieństwa Dowód Przykład rzut wieloma monetami Definicja zdarzenia niezależne Przykład rzucanie wieloma monetami Prawdopodobieństwo warunkowe i twierdzenie Bayesa Definicja prawdopodobieństwo warunkowe Przykład temperatury i opady Twierdzenie reguły mnożenia Dowód Twierdzenie twierdzenie o prawdopodobieństwie całkowitym Dowód Twierdzenie twierdzenie Bayesa Dowód Bayesowski filtr antyspamowy Zmienne losowe, średnie i wariancja Definicja zmienna losowa Przykład błędy przesyłania danych Przykład empiryczna zmienna losowa Definicja wartość oczekiwana Przykład empiryczna zmienna losowa Definicja wariancja i odchylenie standardowe Twierdzenie obliczanie wariancji w praktyce Dowód Przykład empiryczna zmienna losowa Google PageRank (część I) II. Zastosowania matematyki dyskretnej w analizie danych i informatyce 6. Algorytmy algebry liniowej Zrozumieć układy równań liniowych Definicja równanie liniowe dwóch zmiennych Definicja kartezjański układ współrzędnych Przykład równanie liniowe Definicja układ dwóch równań liniowych dwóch zmiennych Przykład układ oznaczony Przykład układ sprzeczny Przykład układ nieoznaczony Definicja układy równań liniowych i ich rozwiązania Definicja układy oznaczone, sprzeczne i nieoznaczone Macierze i macierzowe reprezentacje układów równań liniowych Definicja macierze i wektory Definicja dodawanie i odejmowanie macierzy Definicja mnożenie przez skalar Definicja transpozycja macierzy Definicja iloczyn skalarny wektorów Definicja mnożenie macierzy Przykład ręczne mnożenie macierzy i mnożenie macierzy w NumPy Rozwiązywanie małych układów równań liniowych za pomocą metody eliminacji Gaussa Definicja współczynnik wiodący Definicja zredukowana macierz schodkowa Przykład układ oznaczony z macierzą schodkową Przykład układ sprzeczny z macierzą schodkową Przykład układ nieoznaczony z macierzą schodkową Algorytm eliminacja Gaussa Przykład układ 3 równań liniowych z 3 niewiadomymi Rozwiązywanie dużych układów równań liniowych za pomocą NumPy Przykład układ 3 równań z 3 niewiadomymi (NumPy) Przykład sprzeczne i nieoznaczone układy równań w NumPy Przykład układ 10 równań z 10 niewiadomymi (NumPy) 7. Złożoność algorytmów Złożoność obliczeniowa algorytmów Notacja dużego O Kiedy stałe mają znaczenie? Złożoność algorytmów zawierających podstawowe instrukcje sterujące Przepływ sekwencyjny Przepływ warunkowy Pętla Złożoność popularnych algorytmów wyszukiwania Algorytm wyszukiwania liniowego Czym jest funkcja w Pythonie? Algorytm wyszukiwania binarnego Popularne klasy złożoności obliczeniowej 8. Przechowywanie i wyodrębnianie cech z grafów, drzew i sieci Zrozumieć grafy, drzewa i sieci Definicja graf Definicja stopień wierzchołka Przykład stopnie wierzchołków Twierdzenie suma stopni wierzchołków Definicja ścieżki Definicja cykle Definicja drzewa lub grafy acykliczne Definicja sieci Definicja grafy skierowane Definicja sieci skierowane Przykład sieć skierowana Definicja wierzchołki sąsiednie Definicja grafy i składowe spójne Zastosowania grafów, drzew i sieci Przechowywanie grafów i sieci Definicja lista sąsiedztwa Definicja macierz sąsiedztwa Przykład lista sąsiedztwa i macierz sąsiedztwa Przykład macierz sąsiedztwa niespójnego grafu Definicja macierz sąsiedztwa dla grafu skierowanego Przykład macierz sąsiedztwa dla grafu skierowanego Przykład przechowywanie macierzy sąsiedztwa w Pythonie Wydajne przechowywanie danych sąsiedztwa Definicja macierz wag sieci Przykład macierz wag sieci Definicja macierz wag sieci skierowanej Przykład macierz wag sieci skierowanej Przykład przechowywanie macierzy wag w Pythonie Wyodrębnianie cech z grafów Stopnie wierzchołków w grafie Liczba ścieżek o określonej długości między wierzchołkami Twierdzenie potęgi macierzy sąsiedztwa Potęgi macierzy w Pythonie Twierdzenie najkrótsza (pod względem liczby krawędzi) ścieżka pomiędzy vi i vj Przykład ścieżki między wierzchołkami grafu z rysunku 8.8 9. Przeszukiwanie struktur danych i znajdowanie najkrótszych ścieżek Przeszukiwanie struktur grafowych i drzew Algorytm przeszukiwania w głąb (DFS) Implementacja algorytmu przeszukiwania w głąb w Pythonie Problem najkrótszej ścieżki i jego warianty Najkrótsze ścieżki w sieciach Inne zastosowania najkrótszych ścieżek Definicja problemu najkrótszej ścieżki Sprawdzenie, czy istnieje rozwiązanie Znajdowanie najkrótszych ścieżek metodą siłową Algorytm Dijkstry znajdowania najkrótszych ścieżek Algorytm Dijkstry Algorytm Dijkstry zastosowany do małego problemu Implementacja algorytmu Dijkstry w Pythonie Przykład najkrótsze ścieżki Przykład sieć bez połączenia III. Praktyczne zastosowania matematyki dyskretnej 10. Analiza regresji za pomocą NumPy i scikit-learn Zbiór danych Linie najlepszego dopasowania i metoda najmniejszych kwadratów Zmienne Zależność liniowa Regresja Linia najlepszego dopasowania Metoda najmniejszych kwadratów i suma kwadratów błędów Dopasowywanie prostej metodą najmniejszych kwadratów w NumPy Dopasowywanie krzywych metodą najmniejszych kwadratów z użyciem NumPy i SciPy Dopasowanie płaszczyzn metodą najmniejszych kwadratów z użyciem NumPy i SciPy 11. Wyszukiwanie w sieci za pomocą algorytmu PageRank Rozwój wyszukiwarek na przestrzeni lat Google PageRank (część II) Implementacja algorytmu PageRank w Pythonie Zastosowanie algorytmu na danych rzeczywistych 12. Analiza głównych składowych za pomocą scikit-learn Wartości i wektory własne, bazy ortogonalne Redukcja wymiarowości za pomocą analizy głównych składowych Implementacja metody PCA z scikit-learn Zastosowanie metody PCA na rzeczywistych danych
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153854 N, 153855 N (2 egz.)
Książka
W koszyku
Bibliografia, netografia na stronach 243-250.
Dla przedsiębiorców, inwestorów, księgowych, biegłych rewidentów oraz organów nadzoru finansowego.
Przegląd wyników badań nad wykrywaniem manipulacji finansowych przedsiębiorstw 1.1. Tradycyjne modele wykrywania oszustw finansowych 1.1.2. Modele f-score — modele Dechow, Ge, Larsona i Sloana 1.1.3. Model Christensena, Paika i Williamsa 1.1.4. Model Armstronga, Jagolinzera i Larckera 1.1.5. Modele Beasleya 1.1.6. Modele Bonner, Palmrose i Young 1.1.7. Modele Brazela, Jonesa i Zimbelmana 1.1.8. Modele Richardsona, Tuny i Wu 1.1.9. Modele Ericksona, Hanlon i Maydewa 1.1.10. Modele Feng, Ge, Luo i Shevlina 1.1.11. Modele Hribara, Kraveta i Wilsona 1.1.12. Badania Price'a, Sharpa i Wooda 1113 Model Personsa s 1.1.14. Model Summersai Sweeneya iaj 1.1.15. Modele Kanapickiene oraz Grundiene ty. 11:16 Modele Yulana 1.117. Model Bella i Carcello 1118; Modele Spathisa 1.1.19. Modele Spathisai innych 1.2. Wyniki wcześniejszych badań wykorzystujących algorytmy typu black box Największe przestępstwa finansowe XX i XXI w. 2.1. Lista amerykańskich spółek, które stały się sprawcami największych przestępstw finansowych XX i XXI w. 6 Zastosowania metod uczenia maszynowego i sztucznej inteligencji do wykrywania... 2.2. Mechanizmy działania spółek istotne dla badań nad manipulowaniem sprawozdaniem finansowym 2.3. Mechanizmy manipulacji stosowane przez amerykańskie spółki giełdowe objęto badaniem Budowa własnych modeli wykrywania manipulacji finansowych 3.1. Źródło danych i opis metody badawczej 3.2. Opis algorytmów uczenia maszynowego 3.2.3. Drzewa decyzyjne klasyfikacyjne i regresyjne CART 5.2.4 Losowy las decyzyjny 3.2.5 Metoda wektorów nośnych 3.2.6. Liniowa analiza dyskryminacyjna 3.2.7 Wzmacnianie gradientowe 3.2.8. Estymacja regresji metodą procesów Gaussowskich 3.2.9 Głębokie sieci neuronowe 3.3. Wyniki uczenia algorytmów opartych na największych przestępstwach finansowych XX w. 3.3.1. Regresja logistyczna 3.3.2 Drzewo decyzyjne 3.3.3. XGBoost 3.3.4. Losowy las drzew decyzyjnych 5.3.3 Głęboka sieć neuronowa 3.3.6. Naiwne wnioskowanie Bayesowskie 3.3.7. Liniowa analiza dyskryminacyjna 3.3.8. Metoda wektorów nośnych 3.4. Ocena porównawcza skuteczności wykorzystanych modeli
Sygnatura czytelni BWZ: XIII B 45
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 155044 N (1 egz.)
Biblioteka WEiZ
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 155045 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności