Mirjalili Vahid
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(1)
Forma i typ
Książki
(1)
Publikacje dydaktyczne
(1)
Publikacje fachowe
(1)
Dostępność
tylko na miejscu
(1)
Placówka
Biblioteka WEAiI
(1)
Autor
Berłowski Paweł
(189)
Kotowski Włodzimierz
(179)
Praca zbiorowa
(157)
Skoczylas Zbigniew
(152)
Stiasny Grzegorz
(143)
Mirjalili Vahid
(-)
Sadlik Ryszard
(142)
Blum Maciej
(140)
Michalski Dariusz
(134)
Lewandowski Maciej
(131)
Majewski Jerzy S
(131)
Etzold Hans-Rüdiger
(120)
Leśniewski Mariusz
(116)
Gewert Marian
(108)
Maruchin Wojciech
(107)
Guryn Halina
(105)
Traczyk Wojciech
(101)
Chalastra Michał
(99)
Kardyś Marta
(97)
Marx Karl (1818-1883)
(94)
Nazwisko Imię
(94)
Berkieta Mateusz
(93)
Tomczak Małgorzata
(93)
Polkowski Sławomir
(92)
Engels Friedrich (1820-1895)
(91)
Jakubiec Izabela
(90)
Kotapski Roman
(90)
Rybicki Piotr
(90)
Krysicki Włodzimierz (1905-2001)
(88)
Teleguj Kazimierz
(88)
Kapołka Maciej
(86)
Mikołajewska Emilia
(84)
Zaborowska Joanna
(81)
Piątek Grzegorz
(79)
Rudnicki Bogdan
(79)
Starosolski Włodzimierz (1933- )
(79)
Górczyński Robert
(78)
Meryk Radosław
(78)
Polit Ryszard
(77)
Mroczek Wojciech
(76)
Kulawik Marta
(74)
Mycielski Krzysztof
(74)
Myszkorowski Jakub
(73)
Konopka Eduard
(71)
Jabłoński Marek
(70)
Bielecki Jan (1942-2001)
(69)
Knosala Ryszard (1949- )
(68)
Rajca Piotr (1970- )
(68)
Rymarz Małgorzata
(68)
Walczak Krzysztof
(68)
Walkiewicz Łukasz
(68)
Wiecheć Marek
(68)
Jabłoński Adam
(67)
Laszczak Mirosław
(66)
Piwko Łukasz
(66)
Wodziczko Piotr
(65)
Dziedzic Zbigniew
(64)
Sidor-Rządkowska Małgorzata
(64)
Żakowski Wojciech (1929-1993)
(64)
Pasko Marian
(62)
Włodarski Lech (1916-1997)
(62)
Czakon Wojciech
(61)
Leyko Jerzy (1918-1995)
(61)
Jankowski Mariusz
(60)
Kostecka Alicja
(60)
Lenin Włodzimierz (1870-1924)
(60)
Paszkowska Małgorzata
(60)
Wróblewski Piotr
(60)
Karpińska Marta
(59)
Próchnicki Wojciech
(59)
Rogala Elżbieta
(59)
Bielecki Maciej
(57)
Jelonek Jakub
(57)
Malkowski Tomasz
(57)
Pilch Piotr
(57)
Rauziński Robert (1933- )
(57)
Gawrońska Joanna
(56)
Ajdukiewicz Andrzej (1939- )
(55)
Cieślak Piotr
(55)
Draniewicz Bartosz
(55)
Godek Piotr
(55)
Osiński Zbigniew (1926-2001)
(55)
Jasiński Filip
(54)
Kuliński Włodzisław
(54)
Suchodolski Bogdan (1903-1992)
(54)
Forowicz Krystyna
(53)
Klupiński Kamil
(53)
Szkutnik Leon Leszek
(52)
Zdanikowski Paweł
(52)
Wantuch-Matla Dorota
(51)
Barowicz Marek
(50)
Trammer Hubert
(50)
Walczak Tomasz
(50)
Watrak Andrzej
(50)
Zgółkowa Halina (1947- )
(50)
Barańska Katarzyna
(49)
Czajkowska-Matosiuk Katarzyna
(49)
Jurlewicz Teresa
(49)
Pikoń Andrzej
(49)
Szargut Jan (1923- )
(49)
Chojnacki Ireneusz
(48)
Rok wydania
2010 - 2019
(1)
Okres powstania dzieła
2001-
(1)
Kraj wydania
Polska
(1)
Język
polski
(1)
Temat
Deep learning
(1)
Podręcznik
(1)
Programowanie
(1)
Python (język programowania)
(1)
Sieci neuronowe
(1)
Uczenie maszynowe
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(1)
1 wynik Filtruj
Książka
W koszyku
Tytuł oryginału: Python machine learning : machine learning and deep learning with Pyton, scikit-learn and TensorFlow.
Wydanie 2. odnosi się do oryginału.
Na książce także ISBN oryginału.
Indeks.
Rozdział 1. Umożliwianie komputerom uczenia się z danych 23 Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę 24 Trzy różne rodzaje uczenia maszynowego 24 Prognozowanie przyszłości za pomocą uczenia nadzorowanego 25 Rozwiązywanie problemów interaktywnych za pomocą uczenia przez wzmacnianie 28 Odkrywanie ukrytych struktur za pomocą uczenia nienadzorowanego 29 Wprowadzenie do podstawowej terminologii i notacji 30 Strategia tworzenia systemów uczenia maszynowego 32 Wstępne przetwarzanie - nadawanie danym formy 32 Trenowanie i dobór modelu predykcyjnego 34 Ewaluacja modeli i przewidywanie wystąpienia nieznanych danych 34 Wykorzystywanie środowiska Python do uczenia maszynowego 35 Instalacja środowiska Python i pakietów z repozytorium Python Package Index 35 Korzystanie z platformy Anaconda i menedżera pakietów 36 Pakiety przeznaczone do obliczeń naukowych, analizy danych i uczenia maszynowego 36 Rozdział 2. Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji 39 Sztuczne neurony - rys historyczny początków uczenia maszynowego 40 Formalna definicja sztucznego neuronu 41 Reguła uczenia perceptronu 43 Implementacja algorytmu uczenia perceptronu w Pythonie 45 Obiektowy interfejs API perceptronu 45 Trenowanie modelu perceptronu na zestawie danych Iris 48 Adaptacyjne neurony liniowe i zbieżność uczenia 53 Minimalizacja funkcji kosztu za pomocą metody gradientu prostego 55 Implementacja algorytmu Adaline w Pythonie 56 Usprawnianie gradientu prostego poprzez skalowanie cech 60 Wielkoskalowe uczenie maszynowe i metoda stochastycznego spadku wzdłuż gradientu 62 Rozdział 3. Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn 67 Wybór algorytmu klasyfikującego 68 Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu 68 Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej 74 Teoretyczne podłoże regresji logistycznej i prawdopodobieństwa warunkowego 74 Wyznaczanie wag logistycznej funkcji kosztu 78 Przekształcanie implementacji Adaline do postaci algorytmu regresji logistycznej 80 Uczenie modelu regresji logistycznej za pomocą biblioteki scikit-learn 84 Zapobieganie przetrenowaniu za pomocą regularyzacji 86 Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych 88 Teoretyczne podłoże maksymalnego marginesu 89 Rozwiązywanie przypadków nieliniowo rozdzielnych za pomocą zmiennych uzupełniających 90 Alternatywne implementacje w interfejsie scikit-learn 92 Rozwiązywanie nieliniowych problemów za pomocą jądra SVM 93 Metody jądrowe dla danych nierozdzielnych liniowo 93 Stosowanie sztuczki z funkcją jądra do znajdowania przestrzeni rozdzielających w przestrzeni wielowymiarowej 95 Uczenie drzew decyzyjnych 99 Maksymalizowanie przyrostu informacji - osiąganie jak największych korzyści 100 Budowanie drzewa decyzyjnego 103 Łączenie wielu drzew decyzyjnych za pomocą modelu losowego lasu 107 Algorytm k-najbliższych sąsiadów - model leniwego uczenia 109 Rozdział 4. Tworzenie dobrych zbiorów uczących - wstępne przetwarzanie danych 115 Kwestia brakujących danych 115 Wykrywanie brakujących wartości w danych tabelarycznych 116 Usuwanie próbek lub cech niezawierających wartości 117 Wstawianie brakujących danych 118 Estymatory interfejsu scikit-learn 119 Przetwarzanie danych kategoryzujących 119 Cechy nominalne i porządkowe 120 Tworzenie przykładowego zestawu danych 120 Mapowanie cech porządkowych 121 Kodowanie etykiet klas 121 Kodowanie "gorącojedynkowe" cech nominalnych (z użyciem wektorów własnych) 122 Rozdzielanie zestawu danych na oddzielne podzbiory uczące i testowe 124 Skalowanie cech 127 Dobór odpowiednich cech 129 Regularyzacje L1 i L2 jako kary ograniczające złożoność modelu 129 Interpretacja geometryczna regularyzacji L2 130 Rozwiązania rzadkie za pomocą regularyzacji L1 131 Algorytmy sekwencyjnego wyboru cech 135 Ocenianie istotności cech za pomocą algorytmu losowego lasu 140 Rozdział 5. Kompresja danych poprzez redukcję wymiarowości 143 Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych 144 Podstawowe etapy analizy głównych składowych 144 Wydobywanie głównych składowych krok po kroku 146 Wyjaśniona wariancja całkowita 148 Transformacja cech 149 Analiza głównych składowych w interfejsie scikit-learn 152 Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej 154 Porównanie analizy głównych składowych z liniową analizą dyskryminacyjną 155 Wewnętrzne mechanizmy działania liniowej analizy dyskryminacyjnej 156 Obliczanie macierzy rozproszenia 157 Dobór dyskryminant liniowych dla nowej podprzestrzeni cech 159 Rzutowanie próbek na nową przestrzeń cech 161 Implementacja analizy LDA w bibliotece scikit-learn 161 Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas 163 Funkcje jądra oraz sztuczka z funkcją jądra 164 Implementacja jądrowej analizy głównych składowych w Pythonie 168 Rzutowanie nowych punktów danych 175 Algorytm jądrowej analizy głównych składowych w bibliotece scikit-learn 178 Rozdział 6. Najlepsze metody oceny modelu i strojenie parametryczne 181 Usprawnianie cyklu pracy za pomocą kolejkowania 181 Wczytanie zestawu danych Breast Cancer Wisconsin 182 Łączenie funkcji transformujących i estymatorów w kolejce czynności 183 Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu 184 Metoda wydzielania 185 K-krotny sprawdzian krzyżowy 186 Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji 190 Diagnozowanie problemów z obciążeniem i wariancją za pomocą krzywych uczenia 190 Rozwiązywanie problemów przetrenowania i niedotrenowania za pomocą krzywych walidacji 193 Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki 195 Strojenie hiperparametrów przy użyciu metody przeszukiwania siatki 195 Dobór algorytmu poprzez zagnieżdżony sprawdzian krzyżowy 196 Przegląd metryk oceny skuteczności 198 Odczytywanie macierzy pomyłek 198 Optymalizacja precyzji i pełności modelu klasyfikującego 200 Wykres krzywej ROC 202 Metryki zliczające dla klasyfikacji wieloklasowej 204 Kwestia dysproporcji klas 205 Rozdział 7. Łączenie różnych modeli w celu uczenia zespołowego 209 Uczenie zespołów 209 Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego 213 Implementacja prostego klasyfikatora głosowania większościowego 214 Stosowanie reguły głosowania większościowego do uzyskiwania prognoz 219 Ewaluacja i strojenie klasyfikatora zespołowego 221 Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych 226 Agregacja w pigułce 227 Stosowanie agregacji do klasyfikowania przykładów z zestawu Wine 228 Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego 231 Wzmacnianie - mechanizm działania 232 Stosowanie algorytmu AdaBoost za pomocą biblioteki scikit-learn 236 Rozdział 8. Wykorzystywanie uczenia maszynowego w analizie sentymentów 241 Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu 242 Uzyskiwanie zestawu danych IMDb 242 Przetwarzanie wstępne zestawu danych IMDb do wygodniejszego formatu 243 Wprowadzenie do modelu worka słów 244 Przekształcanie słów w wektory cech 245 Ocena istotności wyrazów za pomocą ważenia częstości termów - odwrotnej częstości w tekście 246 Oczyszczanie danych tekstowych 248 Przetwarzanie tekstu na znaczniki 249 Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu 251 Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe 253 Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta 256 Rozkładanie dokumentów tekstowych za pomocą analizy LDA 257 Analiza LDA w bibliotece scikit-learn 258 Rozdział 9. Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej 263 Serializacja wyuczonych estymatorów biblioteki scikit-learn 264 Konfigurowanie bazy danych SQLite 266 Tworzenie aplikacji sieciowej za pomocą środowiska Flask 269 Nasza pierwsza aplikacja sieciowa 269 Sprawdzanie i wyświetlanie formularza 271 Przekształcanie klasyfikatora recenzji w aplikację sieciową 275 Pliki i katalogi - wygląd drzewa katalogów 277 Implementacja głównej części programu w pliku app.py 277 Konfigurowanie formularza recenzji 280 Tworzenie szablonu strony wynikowej 281 Umieszczanie aplikacji sieciowej na publicznym serwerze 282 Tworzenie konta w serwisie PythonAnywhere 283 Przesyłanie aplikacji klasyfikatora filmowego 283 Aktualizowanie klasyfikatora recenzji filmowych 284 Rozdział 10. Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej 287 Wprowadzenie do regresji liniowej 288 Prosta regresja liniowa 288 Wielowymiarowa regresja liniowa 288 Zestaw danych Housing 290 Wczytywanie zestawu danych Housing do obiektu DataFrame 290 Wizualizowanie ważnych elementów zestawu danych 292 Analiza związków za pomocą macierzy korelacji 293 Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów 296 Określanie parametrów regresywnych za pomocą metody gradientu prostego 296 Szacowanie współczynnika modelu regresji za pomocą biblioteki scikit-learn 300 Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC 301 Ocenianie skuteczności modeli regresji liniowej 304 Stosowanie regularyzowanych metod regresji 307 Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa 308 Dodawanie członów wielomianowych za pomocą biblioteki scikit-learn 309 Modelowanie nieliniowych zależności w zestawie danych Housing 310 Analiza nieliniowych relacji za pomocą algorytmu losowego lasu 314 Rozdział 11. Praca z nieoznakowanymi danymi - analiza skupień 319 Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów 320 Algorytm centroidów w bibliotece scikit-learn 320 Inteligentniejszy sposób dobierania pierwotnych centroidów za pomocą algorytmu k-means++ 324 Klasteryzacja twarda i miękka 325 Stosowanie metody łokcia do wyszukiwania optymalnej liczby skupień 327 Ujęcie ilościowe jakości klasteryzacji za pomocą wykresu profilu 328 Organizowanie skupień do postaci drzewa klastrów 333 Oddolne grupowanie skupień 333 Przeprowadzanie hierarchicznej analizy skupień na macierzy odległości 335 Dołączanie dendrogramów do mapy cieplnej 338 Aglomeracyjna analiza skupień w bibliotece scikit-learn 339 Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN 340 Rozdział 12. Implementowanie wielowarstwowej sieci neuronowej od podstaw 347 Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych 348 Jednowarstwowa sieć neuronowa - powtórzenie 349 Wstęp do wielowarstwowej architektury sieci neuronowych 351 Aktywacja sieci neuronowej za pomocą propagacji w przód 354 Klasyfikowanie pisma odręcznego 356 Zestaw danych MNIST 357 Implementacja perceptronu wielowarstwowego 362 Trenowanie sztucznej sieci neuronowej 371 Obliczanie logistycznej funkcji kosztu 371 Ujęcie intuicyjne algorytmu wstecznej propagacji 374 Uczenie sieci neuronowych za pomocą algorytmu propagacji wstecznej 375 Zbieżność w sieciach neuronowych 378 Jeszcze słowo o implementacji sieci neuronowej 380 Rozdział 13. Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow 381 Biblioteka TensorFlow a skuteczność uczenia 382 Czym jest biblioteka TensorFlow? 383 W jaki sposób będziemy poznawać bibliotekę TensorFlow? 384 Pierwsze kroki z biblioteką TensorFlow 384 Praca ze strukturami tablicowymi 386 Tworzenie prostego modelu za pomocą podstawowego interfejsu TensorFlow 387 Skuteczne uczenie sieci neuronowych za pomocą wyspecjalizowanych interfejsów biblioteki TensorFlow 391 Tworzenie wielowarstwowych sieci neuronowych za pomocą interfejsu Layers 392 Projektowanie wielowarstwowej sieci neuronowej za pomocą interfejsu Keras 395 Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych 400 Funkcja logistyczna - powtórzenie 400 Szacowanie prawdopodobieństw przynależności do klas w klasyfikacji wieloklasowej za pomocą funkcji softmax 402 Rozszerzanie zakresu wartości wyjściowych za pomocą funkcji tangensa hiperbolicznego 403 Aktywacja za pomocą prostowanej jednostki liniowej (ReLU) 405 Rozdział 14. Czas na szczegóły - mechanizm działania biblioteki TensorFlow 409 Główne funkcje biblioteki TensorFlow 410 Rzędy i tensory 410 Sposób uzyskania rzędu i wymiarów tensora 411 Grafy obliczeniowe 412 Węzły zastępcze 414 Definiowanie węzłów zastępczych 414 Wypełnianie węzłów zastępczych danymi 415 Definiowanie węzłów zastępczych dla tablic danych o różnych rozmiarach pakietów danych 416 Zmienne 417 Definiowanie zmiennych 417 Inicjowanie zmiennych 419 Zakres zmiennych 420 Wielokrotne wykorzystywanie zmiennych 421 Tworzenie modelu regresyjnego 423 Realizowanie obiektów w grafie TensorFlow przy użyciu ich nazw 426 Zapisywanie i wczytywanie modelu 428 Przekształcanie tensorów jako wielowymiarowych tablic danych 430 Wykorzystywanie mechanizmów przebiegu sterowania do tworzenia grafów 433 Wizualizowanie grafów za pomocą modułu TensorBoard 436 Zdobywanie doświadczenia w używaniu modułu TensorBoard 439 Rozdział 15. Klasyfikowanie obrazów za pomocą splotowych sieci neuronowych 441 Podstawowe elementy splotowej sieci neuronowej 442 Splotowe sieci neuronowe i hierarchie cech 442 Splot dyskretny 444 Podpróbkowanie 452 Konstruowanie sieci CNN 454 Praca z wieloma kanałami wejściowymi/barw 454 Regularyzowanie sieci neuronowej metodą porzucania 457 Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow 459 Architektura wielowarstwowej sieci CNN 459 Wczytywanie i wstępne przetwarzanie danych 460 Implementowanie sieci CNN za pomocą podstawowego interfejsu TensorFlow 461 Implementowanie sieci CNN za pomocą interfejsu Layers 471 Rozdział 16. Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych 477 Wprowadzenie do danych sekwencyjnych 478 Modelowanie danych sekwencyjnych - kolejność ma znaczenie 478 Przedstawianie sekwencji 478 Różne kategorie modelowania sekwencji 479 Sieci rekurencyjne służące do modelowania sekwencji 480 Struktura sieci RNN i przepływ danych 480 Obliczanie aktywacji w sieciach rekurencyjnych 482 Problemy z uczeniem długofalowych oddziaływań 485 Jednostki LSTM 486 Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji 488 Pierwszy projekt - analiza sentymentów na zestawie danych IMDb za pomocą wielowarstwowej sieci rekurencyjnej 489 Przygotowanie danych 489 Wektor właściwościowy 492 Budowanie modelu sieci rekurencyjnej 494 Konstruktor klasy SentimentRNN 495 Metoda build 495 Metoda train 499 Metoda predict 500 Tworzenie wystąpienia klasy SentimentRNN 500 Uczenie i optymalizowanie modelu sieci rekurencyjnej przeznaczonej do analizy sentymentów 501 Drugi projekt - implementowanie sieci rekurencyjnej modelującej język na poziomie znaków 502 Przygotowanie danych 503 Tworzenie sieci RNN przetwarzającej znaki 506 Konstruktor 506 Metoda build 507 Metoda train 509 Metoda sample 510 Tworzenie i uczenie modelu CharRNN 512 Model CharRNN w trybie próbkowania 512
Sygnatura czytelni BWEAiI: XII Ł 153
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148069 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności