158660
Book
In basket
1. Przygotowanie środowiska pracy Instalowanie zestawu narzędzi Linuks macOS Windows NumPy Definiowanie tablic Typy danych Tablice dwuwymiarowe np.zeros i np.ones Zaawansowane indeksowanie Odczyt i zapis na dysku SciPy Matplotlib Scikit-learn 2. Prawdopodobieństwo Podstawowe koncepcje Przestrzeń próbek i zdarzenia Zmienne losowe Ludzie nie radzą sobie z prawdopodobieństwem Reguły prawdopodobieństwa Prawdopodobieństwo zdarzenia Reguła dodawania Reguła mnożenia Ponowne spojrzenie na regułę dodawania Paradoks dnia urodzin Prawdopodobieństwo warunkowe Prawdopodobieństwo całkowite Prawdopodobieństwo łączne i brzegowe Tabele prawdopodobieństwa łącznego Reguła łańcuchowa dla prawdopodobieństwa 3. Więcej prawdopodobieństwa Rozkłady prawdopodobieństwa Histogramy i prawdopodobieństwa Dyskretne rozkłady prawdopodobieństwa Ciągłe rozkłady prawdopodobieństwa Centralne twierdzenie graniczne Prawo wielkich liczb Twierdzenie Bayesa Rak czy nie rak Aktualizacja prawdopodobieństwa a priori Twierdzenie Bayesa w uczeniu maszynowym 4. Statystyka Rodzaje danych Dane nominalne Dane porządkowe Dane interwałowe Dane ilorazowe Wykorzystanie danych nominalnych w uczeniu głębokim Statystyki podsumowujące Średnie i mediana Miary zmienności Kwantyle i wykresy pudełkowe Braki w danych Korelacja Współczynnik korelacji Pearsona Korelacja Spearmana Testowanie hipotez Hipotezy Test t Test U Manna-Whitneya 5. Algebra liniowa Skalary, wektory, macierze i tensory Skalary Wektory Macierze Tensory Arytmetyka tensorów Operacje tablicowe Operacje wektorowe Mnożenie macierzy Iloczyn Kroneckera 6. Więcej algebry liniowej Macierze kwadratowe Dlaczego macierze kwadratowe? Transpozycja, ślad i potęgowanie Specjalne macierze kwadratowe Macierz jednostkowa Wyznaczniki Odwrotności Macierze symetryczne, ortogonalne i unitarne Określoność macierzy symetrycznych Wektory i wartości własne Znajdowanie wartości i wektorów własnych Normy wektorowe i miary odległości L-normy oraz miary odległości Macierze kowariancji Odległość Mahalanobisa Dywergencja Kullbacka-Leiblera Analiza głównych składowych Rozkład według wartości osobliwych i pseudoodwrotności SVD w akcji Dwa zastosowania 7. Rachunek różniczkowy Nachylenie Pochodne Definicja formalna Podstawowe zasady Funkcje trygonometryczne Funkcje wykładnicze i logarytmy Minima i maksima funkcji Pochodne cząstkowe Mieszane pochodne cząstkowe Reguła łańcuchowa dla pochodnych cząstkowych Gradienty Obliczanie gradientu Wizualizacja gradientu 8. Macierzowy rachunek różniczkowy Formuły Funkcja wektorowa z argumentem skalarnym Funkcja skalarna z argumentem wektorowym Funkcja wektorowa przyjmująca wektor Funkcja macierzowa przyjmująca skalar Funkcja skalarna przyjmująca macierz Tożsamości Funkcja skalarna z argumentem wektorowym Funkcja wektorowa z argumentem skalarnym Funkcja wektorowa przyjmująca wektor Funkcja skalarna przyjmująca macierz Macierze Jacobiego i hesjany Macierze Jacobiego Hesjany Wybrane przykłady z macierzowego rachunku różniczkowego Pochodna operacji na elementach Pochodna funkcji aktywacji 9. Przepływ danych w sieciach neuronowych Reprezentacja danych Tradycyjne sieci neuronowe Głębokie sieci konwolucyjne Przepływ danych w tradycyjnych sieciach neuronowych Przepływ danych w konwolucyjnych sieciach neuronowych Konwolucja Warstwy konwolucyjne Warstwy łączące Warstwy w pełni połączone Przepływ danych w konwolucyjnej sieci neuronowej 10. Propagacja wsteczna Czym jest propagacja wsteczna? Ręczne przeprowadzanie propagacji wstecznej Pochodne cząstkowe Zamiana formuł na kod w Pythonie Uczenie i testowanie modelu Propagacja wsteczna w sieciach w pełni połączonych Wsteczna propagacja błędu Obliczanie pochodnych cząstkowych wag i wyrazów wolnych Implementacja w Pythonie Korzystanie z implementacji Grafy obliczeniowe 11. Metoda gradientu prostego Podstawowa idea Jednowymiarowa metoda gradientu prostego Metoda gradientu prostego w dwóch wymiarach Stochastyczna metoda gradientu prostego Pęd Czym jest pęd? Pęd w jednym wymiarze Pęd w dwóch wymiarach Uczenie modeli za pomocą metod z pędem Pęd Niestierowa Adaptacyjna metoda gradientu prostego RMSprop Adagrad i Adadelta Adam Kilka uwag na temat metod optymalizacji
Sygnatura czytelni BWEAiI: XII E 14
Media files:
Availability:
Wypożyczalnia
All copies are currently on loan: sygn. 156750 N (1 egz.)
Biblioteka WEAiI
Copies are only available in the library: sygn. 156749 N (1 egz.)
Notes:
Tytuł oryginału: Math for deep learning : what you need to know to understand neural networks, 2022
General note
Na stronie tytułowej, okładce i grzbiecie także nazwa wydawcy oryginału: No Starch Press.
W książce także ISBN oryginału.
Bibliography, etc. note
Bibliografia, netografia na stronach 331-334. Indeks.
The item has been added to the basket. If you don't know what the basket is for, click here for details.
Do not show it again

Deklaracja dostępności