Weidman Seth
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(1)
Forma i typ
Książki
(1)
Publikacje fachowe
(1)
Dostępność
tylko na miejscu
(1)
Placówka
Biblioteka WEAiI
(1)
Autor
Berłowski Paweł
(189)
Kotowski Włodzimierz
(179)
Praca zbiorowa
(157)
Skoczylas Zbigniew
(152)
Stiasny Grzegorz
(143)
Weidman Seth
(-)
Sadlik Ryszard
(142)
Blum Maciej
(140)
Michalski Dariusz
(134)
Lewandowski Maciej
(131)
Majewski Jerzy S
(131)
Etzold Hans-Rüdiger
(120)
Leśniewski Mariusz
(116)
Gewert Marian
(108)
Maruchin Wojciech
(107)
Guryn Halina
(105)
Traczyk Wojciech
(101)
Chalastra Michał
(99)
Kardyś Marta
(97)
Marx Karl (1818-1883)
(94)
Nazwisko Imię
(94)
Berkieta Mateusz
(93)
Tomczak Małgorzata
(93)
Polkowski Sławomir
(92)
Engels Friedrich (1820-1895)
(91)
Jakubiec Izabela
(90)
Kotapski Roman
(90)
Rybicki Piotr
(90)
Krysicki Włodzimierz (1905-2001)
(88)
Teleguj Kazimierz
(88)
Kapołka Maciej
(86)
Mikołajewska Emilia
(84)
Zaborowska Joanna
(81)
Piątek Grzegorz
(79)
Rudnicki Bogdan
(79)
Starosolski Włodzimierz (1933- )
(79)
Górczyński Robert
(78)
Meryk Radosław
(78)
Polit Ryszard
(77)
Mroczek Wojciech
(76)
Kulawik Marta
(74)
Mycielski Krzysztof
(74)
Myszkorowski Jakub
(73)
Konopka Eduard
(71)
Jabłoński Marek
(70)
Bielecki Jan (1942-2001)
(69)
Knosala Ryszard (1949- )
(68)
Rajca Piotr (1970- )
(68)
Rymarz Małgorzata
(68)
Walczak Krzysztof
(68)
Walkiewicz Łukasz
(68)
Wiecheć Marek
(68)
Jabłoński Adam
(67)
Laszczak Mirosław
(66)
Piwko Łukasz
(66)
Wodziczko Piotr
(65)
Dziedzic Zbigniew
(64)
Sidor-Rządkowska Małgorzata
(64)
Żakowski Wojciech (1929-1993)
(64)
Pasko Marian
(62)
Włodarski Lech (1916-1997)
(62)
Czakon Wojciech
(61)
Leyko Jerzy (1918-1995)
(61)
Jankowski Mariusz
(60)
Kostecka Alicja
(60)
Lenin Włodzimierz (1870-1924)
(60)
Paszkowska Małgorzata
(60)
Wróblewski Piotr
(60)
Karpińska Marta
(59)
Próchnicki Wojciech
(59)
Rogala Elżbieta
(59)
Bielecki Maciej
(57)
Jelonek Jakub
(57)
Malkowski Tomasz
(57)
Pilch Piotr
(57)
Rauziński Robert (1933- )
(57)
Gawrońska Joanna
(56)
Ajdukiewicz Andrzej (1939- )
(55)
Cieślak Piotr
(55)
Draniewicz Bartosz
(55)
Godek Piotr
(55)
Osiński Zbigniew (1926-2001)
(55)
Jasiński Filip
(54)
Kuliński Włodzisław
(54)
Suchodolski Bogdan (1903-1992)
(54)
Forowicz Krystyna
(53)
Klupiński Kamil
(53)
Szkutnik Leon Leszek
(52)
Zdanikowski Paweł
(52)
Wantuch-Matla Dorota
(51)
Barowicz Marek
(50)
Trammer Hubert
(50)
Walczak Tomasz
(50)
Watrak Andrzej
(50)
Zgółkowa Halina (1947- )
(50)
Barańska Katarzyna
(49)
Czajkowska-Matosiuk Katarzyna
(49)
Jurlewicz Teresa
(49)
Pikoń Andrzej
(49)
Szargut Jan (1923- )
(49)
Chojnacki Ireneusz
(48)
Rok wydania
2020 - 2024
(1)
Okres powstania dzieła
2001-
(1)
Kraj wydania
Polska
(1)
Język
polski
(1)
Temat
Deep learning
(1)
Python (język programowania)
(1)
Sieci neuronowe (informatyka)
(1)
Sztuczna inteligencja
(1)
Uczenie maszynowe
(1)
Gatunek
Podręcznik
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(1)
1 wynik Filtruj
Książka
W koszyku
Tytuł oryginału: Deep learning from scratch : building with Python from first principles.
Na okładce i stronie tytułowej nazwa wydawcy oryginału: O'Reilly.
1. Podstawowe zagadnienia 15 Funkcje 16 Matematyka 16 Diagramy 16 Kod 17 Pochodne 20 Matematyka 20 Diagramy 20 Kod 21 Funkcje zagnieżdżone 22 Diagram 22 Matematyka 22 Kod 23 Inny diagram 23 Reguła łańcuchowa 24 Matematyka 24 Diagram 24 Kod 25 Nieco dłuższy przykład 27 Matematyka 27 Diagram 27 Kod 28 Funkcje z wieloma danymi wejściowymi 29 Matematyka 30 Diagram 30 Kod 30 Pochodne funkcji z wieloma danymi wejściowymi 31 Diagram 31 Matematyka 31 Kod 32 Funkcje przyjmujące wiele wektorów jako dane wejściowe 32 Matematyka 33 Tworzenie nowych cech na podstawie istniejących 33 Matematyka 33 Diagram 33 Kod 34 Pochodne funkcji z wieloma wektorami wejściowymi 35 Diagram 35 Matematyka 36 Kod 36 Następny etap - funkcje wektorowe i ich pochodne 37 Diagram 37 Matematyka 37 Kod 38 Funkcje wektorowe i ich pochodne w kroku wstecz 38 Grafy obliczeniowe z danymi wejściowymi w postaci dwóch macierzy dwuwymiarowych 40 Matematyka 41 Diagram 43 Kod 43 Ciekawa część - krok wstecz 43 Diagram 44 Matematyka 44 Kod 46 2. Wprowadzenie do budowania modeli 51 Wstęp do uczenia nadzorowanego 52 Modele uczenia nadzorowanego 53 Regresja liniowa 55 Regresja liniowa - diagram 55 Regresja liniowa - bardziej pomocny diagram (i obliczenia matematyczne) 57 Dodawanie wyrazu wolnego 58 Regresja liniowa - kod 58 Uczenie modelu 59 Obliczanie gradientów - diagram 59 Obliczanie gradientów - matematyka (i trochę kodu) 60 Obliczanie gradientów - (kompletny) kod 61 Używanie gradientów do uczenia modelu 62 Ocena modelu - testowe i treningowe zbiory danych 63 Ocena modelu - kod 63 Analizowanie najważniejszej cechy 65 Budowanie sieci neuronowych od podstaw 66 Krok 1. Zestaw regresji liniowych 67 Krok 2. Funkcja nieliniowa 67 Krok 3. Inna regresja liniowa 68 Diagramy 68 Kod 70 Sieci neuronowe - krok wstecz 71 Uczenie i ocena pierwszej sieci neuronowej 73 Dwa powody, dla których nowy model jest lepszy 74 3. Deep learning od podstaw 77 Definicja procesu deep learning - pierwszy krok 77 Elementy sieci neuronowych - operacje 79 Diagram 79 Kod 80 Elementy sieci neuronowych - warstwy 82 Diagramy 82 Elementy z elementów 84 Wzorzec warstwy 86 Warstwa gęsta 88 Klasa NeuralNetwork (i ewentualnie inne) 89 Diagram 89 Kod 90 Klasa Loss 90 Deep learning od podstaw 92 Implementowanie treningu na porcjach danych 92 Klasa NeuralNetwork - kod 93 Nauczyciel i optymalizator 95 Optymalizator 95 Nauczyciel 97 Łączenie wszystkich elementów 98 Pierwszy model z dziedziny deep learning (napisany od podstaw) 99 4. Rozszerzenia 101 Intuicyjne rozważania na temat sieci neuronowych 102 Funkcja straty - funkcja softmax z entropią krzyżową 104 Komponent nr 1. Funkcja softmax 104 Komponent nr 2. Entropia krzyżowa 105 Uwaga na temat funkcji aktywacji 108 Eksperymenty 111 Wstępne przetwarzanie danych 111 Model 112 Eksperyment: wartość straty z użyciem funkcji softmax z entropią krzyżową 113 Współczynnik momentum 113 Intuicyjny opis współczynnika momentum 114 Implementowanie współczynnika momentum w klasie Optimizer 114 Eksperyment - algorytm SGD ze współczynnikiem momentum 116 Zmniejszanie współczynnika uczenia 116 Sposoby zmniejszania współczynnika uczenia 116 Eksperymenty - zmniejszanie współczynnika uczenia 118 Inicjowanie wag 119 Matematyka i kod 120 Eksperymenty - inicjowanie wag 121 Dropout 122 Definicja 122 Implementacja 122 Eksperymenty - dropout 123 5. Konwolucyjne sieci neuronowe 127 Sieci neuronowe i uczenie reprezentacji 127 Inna architektura dla danych graficznych 128 Operacja konwolucji 129 Wielokanałowa operacja konwolucji 131 Warstwy konwolucyjne 131 Wpływ na implementację 132 Różnice między warstwami konwolucyjnymi a warstwami gęstymi 133 Generowanie predykcji z użyciem warstw konwolucyjnych - warstwa spłaszczania 134 Warstwy agregujące 135 Implementowanie wielokanałowej operacji konwolucji 137 Krok w przód 137 Konwolucja - krok wstecz 140 Porcje danych, konwolucje dwuwymiarowe i operacje wielokanałowe 144 Konwolucje dwuwymiarowe 145 Ostatni element - dodawanie kanałów 147 Używanie nowej operacji do uczenia sieci CNN 150 Operacja Flatten 150 Kompletna warstwa Conv2D 151 Eksperymenty 152 6. Rekurencyjne sieci neuronowe 155 Najważniejsze ograniczenie - przetwarzanie odgałęzień 156 Automatyczne różniczkowanie 158 Pisanie kodu do akumulowania gradientów 158 Powody stosowania sieci RNN 162 Wprowadzenie do sieci RNN 163 Pierwsza klasa dla sieci RNN - RNNLayer 164 Druga klasa dla sieci RNN - RNNNode 165 Łączenie obu klas 166 Krok wstecz 167 Sieci RNN - kod 169 Klasa RNNLayer 170 Podstawowe elementy sieci RNNNode 172 Zwykłe węzły RNNNode 173 Ograniczenia zwykłych węzłów RNNNode 175 Pierwsze rozwiązanie - węzły GRUNode 176 Węzły LSTMNode 179 Reprezentacja danych dla opartego na sieci RNN modelu języka naturalnego na poziomie znaków 182 Inne zadania z obszaru modelowania języka naturalnego 182 Łączenie odmian warstw RNNLayer 183 Łączenie wszystkich elementów 184 7. PyTorch 187 Typ Tensor w bibliotece PyTorch 187 Deep learning z użyciem biblioteki PyTorch 188 Elementy z biblioteki PyTorch - klasy reprezentujące model, warstwę, optymalizator i wartość straty 189 Implementowanie elementów sieci neuronowej za pomocą biblioteki PyTorch - warstwa DenseLayer 190 Przykład - modelowanie cen domów w Bostonie z użyciem biblioteki PyTorch 191 Elementy oparte na bibliotece PyTorch - klasy optymalizatora i wartości straty 192 Elementy oparte na bibliotece PyTorch - klasa nauczyciela 193 Sztuczki służące do optymalizowania uczenia w bibliotece PyTorch 195 Sieci CNN w bibliotece PyTorch 196 Klasa DataLoader i transformacje 198 Tworzenie sieci LSTM za pomocą biblioteki PyTorch 200 Postscriptum - uczenie nienadzorowane z użyciem autoenkoderów 202 Uczenie reprezentacji 203 Podejście stosowane w sytuacjach, gdy w ogóle nie ma etykiet 203 Implementowanie autoenkodera za pomocą biblioteki PyTorch 204 Trudniejszy test uczenia nienadzorowanego i rozwiązanie 209 A. Skok na głęboką wodę 211 Reguła łańcuchowa dla macierzy 211 Gradient dla wartości straty względem wyrazu wolnego 215 Konwolucje z użyciem mnożenia macierzy 215
Sygnatura czytelni BWEAiI: XII Ł 175
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149871 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności