Keras (biblioteka programistyczna)
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(2)
Forma i typ
Książki
(2)
Publikacje fachowe
(2)
Publikacje dydaktyczne
(1)
Publikacje naukowe
(1)
Dostępność
tylko na miejscu
(2)
Placówka
Biblioteka WEAiI
(2)
Autor
Atienza Rowel
(1)
Géron Aurélien
(1)
Sawka Krzysztof
(1)
Tkacz Magdalena
(1)
Rok wydania
2020 - 2024
(2)
Okres powstania dzieła
2001-
(2)
Kraj wydania
Polska
(2)
Język
polski
(2)
Odbiorca
Informatycy
(1)
Programiści
(1)
Szkoły wyższe
(1)
Temat
Budownictwo
(2411)
Zarządzanie
(2036)
Matematyka
(1929)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1791)
Keras (biblioteka programistyczna)
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1012)
Turystyka
(952)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(931)
Automatyka
(916)
Język angielski
(871)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(759)
Technika
(740)
Konstrukcje budowlane
(726)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Transport
(673)
Piłka nożna
(672)
Elektroenergetyka
(667)
Architektura
(637)
Marketing
(636)
Innowacje
(619)
Naprężenia i odkształcenia
(612)
OZE
(606)
Programowanie (informatyka)
(589)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(566)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Produkcja
(517)
Materiałoznawstwo
(516)
Symulacja
(515)
Inwestycje
(506)
Praca
(503)
Analiza matematyczna
(495)
Zarządzanie jakością
(495)
Zarządzanie zasobami ludzkimi (HRM)
(494)
Dzieci
(489)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(467)
Psychologia
(467)
Szkolnictwo wyższe
(466)
Przedsiębiorstwo
(465)
Internet
(464)
Modele matematyczne
(464)
Metale
(462)
Nauka
(455)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(428)
Mechanika budowli
(424)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(382)
Banki
(378)
BHP
(375)
Rachunkowość zarządcza
(374)
Gatunek
Podręcznik
(2)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(2)
2 wyniki Filtruj
Książka
W koszyku
Wydanie 2. odnosi się do oryginału.
Bibliografie, netografie przy większości rozdziałów.
Dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie.
Wprowadzenie do uczenia głębokiego z Keras Dlaczego Keras jest idealną biblioteką do uczenia głębokiego? Instalowanie biblioteki Keras i TensorFlow Sieci MLP, CNN i RNN Różnice między MLP, CNN i RNN Perceptron wielowarstwowy (MLP) Zbiór danych MNIST Model klasyfikatora cyfr MNIST Budowanie modelu przy użyciu MLP i Keras Regularyzacja Funkcja aktywacji i funkcja straty Optymalizacja Ocena wydajności Podsumowanie modelu MLP Splotowa (konwolucyjna) sieć neuronowa Splot Operacje łączenia Ocena wydajności i podsumowanie modelu Rekurencyjna sieć neuronowa Głębokie sieci neuronowe Funkcyjne API Keras Tworzenie modelu o dwóch wejściach i jednym wyjściu Głęboka sieć resztkowa (ResNet) ResNet v2 Gęsto połączona sieć splotowa (DenseNet) Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10 Sieci autokodujące Zasada działania sieci autokodującej Budowanie sieci autokodującej za pomocą Keras Autokodujące sieci odszumiające (DAE) Automatyczne kolorowanie z użyciem autokodera . Generujące sieci współzawodniczące GAN - informacje wprowadzające Podstawy GAN Implementacja DCGAN w Keras Warunkowe sieci GAN Ulepszone sieci GAN Sieć GAN Wassersteina Funkcje odległości Funkcja odległości w GAN Wykorzystanie funkcji straty Wassersteina Implementacja WGAN przy użyciu Keras GAN z metodą najmniejszych kwadratów (LSGAN) Pomocniczy klasyfikator GAN (ACGAN) Rozplątane reprezentacje w GAN Rozplątane reprezentacje Sieć InfoGAN Implementacja InfoGAN w Keras Ocena rezultatów działania generatora sieci InfoGAN Sieci StackedGAN Implementacja sieci StackedGAN w Keras Ocena rezultatów działania generatora StackedGAN Międzydomenowe GAN Podstawy sieci CycleGAN Model sieci CycleGAN Implementacja CycleGAN przy użyciu Keras Wyjścia generatora CycleGAN CycleGAN na zbiorach danych MNIST i SVHN . Wariacyjne sieci autokodujące (VAE) Podstawy sieci VAE Wnioskowanie wariacyjne Podstawowe równanie Optymalizacja Sztuczka z reparametryzacją Testowanie dekodera VAE w Keras Korzystanie z CNN w sieciach autokodujących Warunkowe VAE (CVAE) B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami Uczenie głębokie ze wzmocnieniem Podstawy uczenia ze wzmocnieniem (RL) Wartość Q Przykład Q-uczenia Q-uczenie w języku Python Otoczenie niedeterministyczne Uczenie z wykorzystaniem różnic czasowych Q-uczenie w Open AI Gym 9.6 Głęboka sieć Q (DQN) Implementacja DQN w Keras Q-uczenie podwójnej sieci DQN (DDQN) Strategie w metodach gradientowych Twierdzenie o gradiencie strategii Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE) Metoda WZMOCNIENIE z wartością bazową Metoda Aktor-Krytyk Metoda Aktor-Krytyk z przewagą (A2C) Metody strategii gradientowych przy użyciu Keras Ocena wydajności metod strategii gradientowej Wykrywanie obiektów Wykrywanie obiektów Pole zakotwiczenia Referencyjne pola zakotwiczenia Funkcje strat Architektura modelu SSD Architektura modelu SSD w Keras Obiekty SSD w Keras Model SSD w Keras Model generatora danych w Keras Przykładowy zbiór danych Szkolenie modelu SSD Algorytm niemaksymalnego tłumienia (NMS) Walidacja modelu SSD Segmentacja semantyczna Segmentacja Sieć do segmentacji semantycznej Sieć do segmentacji semantycznej w Keras Przykładowy zbiór danych Walidacja segmentacji semantycznej Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej Informacja wzajemna i entropia Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych Sieć koderów do grupowania nienadzorowanego Implementacja nienadzorowanego grupowania w Keras Walidacja na zbiorze cyfr MNIST Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
Sygnatura czytelni BWEAiI: XII Ą 151
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153004 (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn, Keras i TensorFlow / Aurélien Géron ; przekład: Krzysztof Sawka. - Gliwice : Helion, 2023. - 774, [2] strony : fotografie, ilustracje, wykresy ; 24 cm.
Wydanie 3. odnosi się do oryginału. Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Indeks.
Podstawy uczenia maszynowego Nadzorowanie uczenia Uczenie wsadowe i uczenie przyrostowe Uczenie z przykładów i uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Testowanie i ocenianie Strojenie hiperparametrów i dobór modelu Niezgodność danych Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz wskaźnik wydajności Zdobądź dane Uruchom przykładowy kod w serwisie Google Colab Zapisz zmiany w kodzie i w danych Zalety i wady interaktywności Kod w książce a kod w notatnikach Jupyter Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Zwizualizuj dane geograficzne Poszukaj korelacji Eksperymentuj z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyść dane Obsługa tekstu i atrybutów kategorialnych Skalowanie i przekształcanie cech Niestandardowe transformatory Potoki transformujące Wybierz i wytrenuj model Trenuj i oceń model za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizowanie najlepszych modeli i ich błędów Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Regresja metodą elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Cechy podobieństwa Gaussowskie jądro RBF Klasy SVM i złożoność obliczeniowa Regresja SVM Mechanizm działania liniowych klasyfikatorów SVM Problem dualny Kernelizowane maszyny SVM 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Wrażliwość na orientację osi Drzewa decyzyjne mają znaczną wariancję 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Wzmacnianie gradientu w oparciu o histogram Kontaminacja 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Rzutowanie na d wymiarów
Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Losowa analiza PCA Przyrostowa analiza PCA Rzutowanie losowe Algorytm LLE Inne techniki redukowania wymiarowości 9. Techniki uczenia nienadzorowanego Analiza skupień: algorytm centroidów i DBSCAN Algorytm centroidów Granice algorytmu centroidów Analiza skupień w segmentacji obrazu Analiza skupień w uczeniu półnadzorowanym Algorytm DBSCAN Mieszaniny gaussowskie Wykrywanie anomalii za pomocą mieszanin gaussowskich Wyznaczanie liczby skupień Bayesowskie modele mieszane Sieci neuronowe i uczenie głębokie 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Regresyjne perceptrony wielowarstwowe Klasyfikacyjne perceptrony wielowarstwowe Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego Zapisywanie i odczytywanie modelu Stosowanie wywołań zwrotnych Wizualizacja danych za pomocą narzędzia TensorBoard Dostrajanie hiperparametrów sieci neuronowej Liczba warstw ukrytych Liczba neuronów w poszczególnych warstwach ukrytych Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjalizacje wag Glorota i He Lepsze funkcje aktywacji Normalizacja wsadowa Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Uczenie transferowe w interfejsie Keras Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizator Adam AdaMax Nadam AdamW Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób zapobiegania przetrenowaniu Regularyzacja l1 i l2 Porzucanie Regularyzacja typu Monte Carlo (MC) Regularyzacja typu max-norm Modele niestandardowe i uczenie za pomocą modułu TensorFlow Krótkie omówienie modułu TensorFlow Korzystanie z modułu TensorFlow jak z biblioteki NumPy Tensory i operacje Tensory a biblioteka NumPy Konwersje typów Zmienne Dostosowywanie modeli i algorytmów uczenia Niestandardowe funkcje straty Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia Niestandardowe wskaźniki Niestandardowe warstwy Niestandardowe modele Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu Obliczanie gradientów za pomocą różniczkowania automatycznego Niestandardowe pętle uczenia Funkcje i grafy modułu TensorFlow AutoGraph i kreślenie Reguły związane z funkcją TF Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow Interfejs tf.data Łączenie przekształceń Tasowanie danych Przeplatanie wierszy z różnych plików Wstępne przetwarzanie danych Składanie wszystkiego w całość Pobieranie wstępne Stosowanie zestawu danych z interfejsem Keras Format TFRecord Skompresowane pliki TFRecord Wprowadzenie do buforów protokołów Bufory protokołów w module TensorFlow Wczytywanie i analizowanie składni obiektów Example Obsługa list list za pomocą bufora protokołów SequenceExample Warstwy przetwarzania wstępnego Keras Warstwa Normalization Warstwa Discretization Warstwa CategoryEncoding Warstwa StringLookup Warstwa Hashing Kodowanie cech kategorialnych za pomocą wektorów właściwościowych Wstępne przetwarzanie tekstu Korzystanie z wytrenowanych składników modelu językowego Warstwy wstępnego przetwarzania obrazów Projekt TensorFlow Datasets (TFDS) Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych Struktura kory wzrokowej Warstwy splotowe Filtry Stosy map cech Implementacja warstw splotowych w interfejsie Keras Zużycie pamięci operacyjnej Warstwa łącząca Implementacja warstw łączących w interfejsie Keras Architektury splotowych sieci neuronowych LeNet-5 AlexNet
GoogLeNet VGGNet ResNet Xception SENet Wybór właściwej struktury CNN Implementacja sieci ResNet-34 za pomocą interfejsu Keras Korzystanie z gotowych modeli w interfejsie Keras Gotowe modele w uczeniu transferowym Klasyfikowanie i lokalizowanie Wykrywanie obiektów W pełni połączone sieci splotowe Sieć YOLO Śledzenie obiektów Segmentacja semantyczna Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych Neurony i warstwy rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Uczenie sieci rekurencyjnych Prognozowanie szeregów czasowych Rodzina modeli ARMA Przygotowywanie danych dla modeli uczenia maszynowego Prognozowanie za pomocą modelu liniowego Prognozowanie za pomocą prostej sieci rekurencyjnej Prognozowanie za pomocą głębokich sieci rekurencyjnych Prognozowanie wielowymiarowych szeregów czasowych Prognozowanie kilka taktów w przód Prognozowanie za pomocą modelu sekwencyjnego Obsługa długich sekwencji Zwalczanie problemu niestabilnych gradientów Zwalczanie problemu pamięci krótkotrwałej Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej Tworzenie zestawu danych uczących Budowanie i uczenie modelu char-RNN Generowanie sztucznego tekstu szekspirowskiego Stanowe sieci rekurencyjne Analiza opinii Maskowanie Korzystanie z gotowych reprezentacji właściwościowych i modeli językowych Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego Dwukierunkowe sieci rekurencyjne Przeszukiwanie wiązkowe Mechanizmy uwagi Liczy się tylko uwaga: pierwotna architektura transformatora Zatrzęsienie modeli transformatorów Transformatory wizualne Biblioteka Transformers firmy Hugging Face Autokodery, generatywne sieci przeciwstawne i modele rozpraszające Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja autokodera stosowego za pomocą interfejsu Keras Wizualizowanie rekonstrukcji Wizualizowanie zestawu danych Fashion MNIST Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Wiązanie wag Uczenie autokoderów pojedynczo Autokodery splotowe Autokodery odszumiające Autokodery rzadkie Autokodery wariacyjne Generowanie obrazów Fashion MNIST Generatywne sieci przeciwstawne Problemy związane z uczeniem sieci GAN Głębokie splotowe sieci GAN Rozrost progresywny sieci GAN Sieci StyleGAN Modele rozpraszające Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie strategii Wprowadzenie do narzędzia OpenAI Gym Sieci neuronowe jako strategie Ocenianie czynności: problem przypisania zasługi Gradienty strategii Procesy decyzyjne Markowa Uczenie metodą różnic czasowych Q-uczenie Przybliżający algorytm Q-uczenia i Q-uczenie głębokie Implementacja modelu Q-uczenia głębokiego Odmiany Q-uczenia głębokiego Ustalone Q-wartości docelowe Podwójna sieć DQN Odtwarzanie priorytetowych doświadczeń Walcząca sieć DQN Przegląd popularnych algorytmów RN Wielkoskalowe uczenie i wdrażanie modeli TensorFlow Eksploatacja modelu TensorFlow Korzystanie z systemu TensorFlow Serving Tworzenie usługi predykcyjnej na platformie Vertex AI Uwierzytelnianie i autoryzacja w serwisie GCP Wykonywanie zadań predykcji wsadowych w usłudze Vertex AI Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym Przetwarzanie modelu na stronie internetowej Przyspieszanie obliczeń za pomocą procesorów graficznych Zakup własnej karty graficznej Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji i zmiennych na urządzeniach Przetwarzanie równoległe na wielu urządzeniach Uczenie modeli za pomocą wielu urządzeń Zrównoleglanie modelu Zrównoleglanie danych Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania Uczenie modelu za pomocą klastra TensorFlow Realizowanie dużych grup zadań uczenia za pomocą usługi Vertex AI Strojenie hiperparametrów w usłudze Vertex AI
Sygnatura czytelni BWEAiI: XII E 131
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154703 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności