TensorFlow (biblioteka programistyczna)
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(3)
Forma i typ
Książki
(3)
Publikacje fachowe
(3)
Publikacje dydaktyczne
(1)
Publikacje naukowe
(1)
Dostępność
tylko na miejscu
(3)
Placówka
Biblioteka WEAiI
(3)
Autor
Atienza Rowel
(1)
Géron Aurélien
(1)
Liu Yuxi
(1)
Sawka Krzysztof
(1)
Tkacz Magdalena
(1)
Rok wydania
2020 - 2024
(3)
Okres powstania dzieła
2001-
(3)
Kraj wydania
Polska
(3)
Język
polski
(3)
Odbiorca
Informatycy
(2)
Programiści
(1)
Szkoły wyższe
(1)
Temat
Budownictwo
(2411)
Zarządzanie
(2036)
Matematyka
(1929)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1791)
TensorFlow (biblioteka programistyczna)
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1012)
Turystyka
(952)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(931)
Automatyka
(916)
Język angielski
(871)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(759)
Technika
(740)
Konstrukcje budowlane
(726)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Transport
(673)
Piłka nożna
(672)
Elektroenergetyka
(667)
Architektura
(637)
Marketing
(636)
Innowacje
(619)
Naprężenia i odkształcenia
(612)
OZE
(606)
Programowanie (informatyka)
(589)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(566)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Produkcja
(517)
Materiałoznawstwo
(516)
Symulacja
(515)
Inwestycje
(506)
Praca
(503)
Analiza matematyczna
(495)
Zarządzanie jakością
(495)
Zarządzanie zasobami ludzkimi (HRM)
(494)
Dzieci
(489)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(467)
Psychologia
(467)
Szkolnictwo wyższe
(466)
Przedsiębiorstwo
(465)
Internet
(464)
Modele matematyczne
(464)
Metale
(462)
Nauka
(455)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(428)
Mechanika budowli
(424)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(382)
Banki
(378)
BHP
(375)
Rachunkowość zarządcza
(374)
Gatunek
Podręcznik
(3)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(3)
3 wyniki Filtruj
Książka
W koszyku
Wydanie 2. odnosi się do oryginału.
Bibliografie, netografie przy większości rozdziałów.
Dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie.
Wprowadzenie do uczenia głębokiego z Keras Dlaczego Keras jest idealną biblioteką do uczenia głębokiego? Instalowanie biblioteki Keras i TensorFlow Sieci MLP, CNN i RNN Różnice między MLP, CNN i RNN Perceptron wielowarstwowy (MLP) Zbiór danych MNIST Model klasyfikatora cyfr MNIST Budowanie modelu przy użyciu MLP i Keras Regularyzacja Funkcja aktywacji i funkcja straty Optymalizacja Ocena wydajności Podsumowanie modelu MLP Splotowa (konwolucyjna) sieć neuronowa Splot Operacje łączenia Ocena wydajności i podsumowanie modelu Rekurencyjna sieć neuronowa Głębokie sieci neuronowe Funkcyjne API Keras Tworzenie modelu o dwóch wejściach i jednym wyjściu Głęboka sieć resztkowa (ResNet) ResNet v2 Gęsto połączona sieć splotowa (DenseNet) Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10 Sieci autokodujące Zasada działania sieci autokodującej Budowanie sieci autokodującej za pomocą Keras Autokodujące sieci odszumiające (DAE) Automatyczne kolorowanie z użyciem autokodera . Generujące sieci współzawodniczące GAN - informacje wprowadzające Podstawy GAN Implementacja DCGAN w Keras Warunkowe sieci GAN Ulepszone sieci GAN Sieć GAN Wassersteina Funkcje odległości Funkcja odległości w GAN Wykorzystanie funkcji straty Wassersteina Implementacja WGAN przy użyciu Keras GAN z metodą najmniejszych kwadratów (LSGAN) Pomocniczy klasyfikator GAN (ACGAN) Rozplątane reprezentacje w GAN Rozplątane reprezentacje Sieć InfoGAN Implementacja InfoGAN w Keras Ocena rezultatów działania generatora sieci InfoGAN Sieci StackedGAN Implementacja sieci StackedGAN w Keras Ocena rezultatów działania generatora StackedGAN Międzydomenowe GAN Podstawy sieci CycleGAN Model sieci CycleGAN Implementacja CycleGAN przy użyciu Keras Wyjścia generatora CycleGAN CycleGAN na zbiorach danych MNIST i SVHN . Wariacyjne sieci autokodujące (VAE) Podstawy sieci VAE Wnioskowanie wariacyjne Podstawowe równanie Optymalizacja Sztuczka z reparametryzacją Testowanie dekodera VAE w Keras Korzystanie z CNN w sieciach autokodujących Warunkowe VAE (CVAE) B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami Uczenie głębokie ze wzmocnieniem Podstawy uczenia ze wzmocnieniem (RL) Wartość Q Przykład Q-uczenia Q-uczenie w języku Python Otoczenie niedeterministyczne Uczenie z wykorzystaniem różnic czasowych Q-uczenie w Open AI Gym 9.6 Głęboka sieć Q (DQN) Implementacja DQN w Keras Q-uczenie podwójnej sieci DQN (DDQN) Strategie w metodach gradientowych Twierdzenie o gradiencie strategii Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE) Metoda WZMOCNIENIE z wartością bazową Metoda Aktor-Krytyk Metoda Aktor-Krytyk z przewagą (A2C) Metody strategii gradientowych przy użyciu Keras Ocena wydajności metod strategii gradientowej Wykrywanie obiektów Wykrywanie obiektów Pole zakotwiczenia Referencyjne pola zakotwiczenia Funkcje strat Architektura modelu SSD Architektura modelu SSD w Keras Obiekty SSD w Keras Model SSD w Keras Model generatora danych w Keras Przykładowy zbiór danych Szkolenie modelu SSD Algorytm niemaksymalnego tłumienia (NMS) Walidacja modelu SSD Segmentacja semantyczna Segmentacja Sieć do segmentacji semantycznej Sieć do segmentacji semantycznej w Keras Przykładowy zbiór danych Walidacja segmentacji semantycznej Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej Informacja wzajemna i entropia Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych Sieć koderów do grupowania nienadzorowanego Implementacja nienadzorowanego grupowania w Keras Walidacja na zbiorze cyfr MNIST Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
Sygnatura czytelni BWEAiI: XII Ą 151
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153004 (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn, Keras i TensorFlow / Aurélien Géron ; przekład: Krzysztof Sawka. - Gliwice : Helion, 2023. - 774, [2] strony : fotografie, ilustracje, wykresy ; 24 cm.
Wydanie 3. odnosi się do oryginału. Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Indeks.
Podstawy uczenia maszynowego Nadzorowanie uczenia Uczenie wsadowe i uczenie przyrostowe Uczenie z przykładów i uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Testowanie i ocenianie Strojenie hiperparametrów i dobór modelu Niezgodność danych Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz wskaźnik wydajności Zdobądź dane Uruchom przykładowy kod w serwisie Google Colab Zapisz zmiany w kodzie i w danych Zalety i wady interaktywności Kod w książce a kod w notatnikach Jupyter Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Zwizualizuj dane geograficzne Poszukaj korelacji Eksperymentuj z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyść dane Obsługa tekstu i atrybutów kategorialnych Skalowanie i przekształcanie cech Niestandardowe transformatory Potoki transformujące Wybierz i wytrenuj model Trenuj i oceń model za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizowanie najlepszych modeli i ich błędów Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Regresja metodą elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Cechy podobieństwa Gaussowskie jądro RBF Klasy SVM i złożoność obliczeniowa Regresja SVM Mechanizm działania liniowych klasyfikatorów SVM Problem dualny Kernelizowane maszyny SVM 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Wrażliwość na orientację osi Drzewa decyzyjne mają znaczną wariancję 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Wzmacnianie gradientu w oparciu o histogram Kontaminacja 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Rzutowanie na d wymiarów
Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Losowa analiza PCA Przyrostowa analiza PCA Rzutowanie losowe Algorytm LLE Inne techniki redukowania wymiarowości 9. Techniki uczenia nienadzorowanego Analiza skupień: algorytm centroidów i DBSCAN Algorytm centroidów Granice algorytmu centroidów Analiza skupień w segmentacji obrazu Analiza skupień w uczeniu półnadzorowanym Algorytm DBSCAN Mieszaniny gaussowskie Wykrywanie anomalii za pomocą mieszanin gaussowskich Wyznaczanie liczby skupień Bayesowskie modele mieszane Sieci neuronowe i uczenie głębokie 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Regresyjne perceptrony wielowarstwowe Klasyfikacyjne perceptrony wielowarstwowe Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego Zapisywanie i odczytywanie modelu Stosowanie wywołań zwrotnych Wizualizacja danych za pomocą narzędzia TensorBoard Dostrajanie hiperparametrów sieci neuronowej Liczba warstw ukrytych Liczba neuronów w poszczególnych warstwach ukrytych Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjalizacje wag Glorota i He Lepsze funkcje aktywacji Normalizacja wsadowa Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Uczenie transferowe w interfejsie Keras Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizator Adam AdaMax Nadam AdamW Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób zapobiegania przetrenowaniu Regularyzacja l1 i l2 Porzucanie Regularyzacja typu Monte Carlo (MC) Regularyzacja typu max-norm Modele niestandardowe i uczenie za pomocą modułu TensorFlow Krótkie omówienie modułu TensorFlow Korzystanie z modułu TensorFlow jak z biblioteki NumPy Tensory i operacje Tensory a biblioteka NumPy Konwersje typów Zmienne Dostosowywanie modeli i algorytmów uczenia Niestandardowe funkcje straty Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia Niestandardowe wskaźniki Niestandardowe warstwy Niestandardowe modele Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu Obliczanie gradientów za pomocą różniczkowania automatycznego Niestandardowe pętle uczenia Funkcje i grafy modułu TensorFlow AutoGraph i kreślenie Reguły związane z funkcją TF Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow Interfejs tf.data Łączenie przekształceń Tasowanie danych Przeplatanie wierszy z różnych plików Wstępne przetwarzanie danych Składanie wszystkiego w całość Pobieranie wstępne Stosowanie zestawu danych z interfejsem Keras Format TFRecord Skompresowane pliki TFRecord Wprowadzenie do buforów protokołów Bufory protokołów w module TensorFlow Wczytywanie i analizowanie składni obiektów Example Obsługa list list za pomocą bufora protokołów SequenceExample Warstwy przetwarzania wstępnego Keras Warstwa Normalization Warstwa Discretization Warstwa CategoryEncoding Warstwa StringLookup Warstwa Hashing Kodowanie cech kategorialnych za pomocą wektorów właściwościowych Wstępne przetwarzanie tekstu Korzystanie z wytrenowanych składników modelu językowego Warstwy wstępnego przetwarzania obrazów Projekt TensorFlow Datasets (TFDS) Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych Struktura kory wzrokowej Warstwy splotowe Filtry Stosy map cech Implementacja warstw splotowych w interfejsie Keras Zużycie pamięci operacyjnej Warstwa łącząca Implementacja warstw łączących w interfejsie Keras Architektury splotowych sieci neuronowych LeNet-5 AlexNet
GoogLeNet VGGNet ResNet Xception SENet Wybór właściwej struktury CNN Implementacja sieci ResNet-34 za pomocą interfejsu Keras Korzystanie z gotowych modeli w interfejsie Keras Gotowe modele w uczeniu transferowym Klasyfikowanie i lokalizowanie Wykrywanie obiektów W pełni połączone sieci splotowe Sieć YOLO Śledzenie obiektów Segmentacja semantyczna Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych Neurony i warstwy rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Uczenie sieci rekurencyjnych Prognozowanie szeregów czasowych Rodzina modeli ARMA Przygotowywanie danych dla modeli uczenia maszynowego Prognozowanie za pomocą modelu liniowego Prognozowanie za pomocą prostej sieci rekurencyjnej Prognozowanie za pomocą głębokich sieci rekurencyjnych Prognozowanie wielowymiarowych szeregów czasowych Prognozowanie kilka taktów w przód Prognozowanie za pomocą modelu sekwencyjnego Obsługa długich sekwencji Zwalczanie problemu niestabilnych gradientów Zwalczanie problemu pamięci krótkotrwałej Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej Tworzenie zestawu danych uczących Budowanie i uczenie modelu char-RNN Generowanie sztucznego tekstu szekspirowskiego Stanowe sieci rekurencyjne Analiza opinii Maskowanie Korzystanie z gotowych reprezentacji właściwościowych i modeli językowych Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego Dwukierunkowe sieci rekurencyjne Przeszukiwanie wiązkowe Mechanizmy uwagi Liczy się tylko uwaga: pierwotna architektura transformatora Zatrzęsienie modeli transformatorów Transformatory wizualne Biblioteka Transformers firmy Hugging Face Autokodery, generatywne sieci przeciwstawne i modele rozpraszające Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja autokodera stosowego za pomocą interfejsu Keras Wizualizowanie rekonstrukcji Wizualizowanie zestawu danych Fashion MNIST Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Wiązanie wag Uczenie autokoderów pojedynczo Autokodery splotowe Autokodery odszumiające Autokodery rzadkie Autokodery wariacyjne Generowanie obrazów Fashion MNIST Generatywne sieci przeciwstawne Problemy związane z uczeniem sieci GAN Głębokie splotowe sieci GAN Rozrost progresywny sieci GAN Sieci StyleGAN Modele rozpraszające Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie strategii Wprowadzenie do narzędzia OpenAI Gym Sieci neuronowe jako strategie Ocenianie czynności: problem przypisania zasługi Gradienty strategii Procesy decyzyjne Markowa Uczenie metodą różnic czasowych Q-uczenie Przybliżający algorytm Q-uczenia i Q-uczenie głębokie Implementacja modelu Q-uczenia głębokiego Odmiany Q-uczenia głębokiego Ustalone Q-wartości docelowe Podwójna sieć DQN Odtwarzanie priorytetowych doświadczeń Walcząca sieć DQN Przegląd popularnych algorytmów RN Wielkoskalowe uczenie i wdrażanie modeli TensorFlow Eksploatacja modelu TensorFlow Korzystanie z systemu TensorFlow Serving Tworzenie usługi predykcyjnej na platformie Vertex AI Uwierzytelnianie i autoryzacja w serwisie GCP Wykonywanie zadań predykcji wsadowych w usłudze Vertex AI Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym Przetwarzanie modelu na stronie internetowej Przyspieszanie obliczeń za pomocą procesorów graficznych Zakup własnej karty graficznej Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji i zmiennych na urządzeniach Przetwarzanie równoległe na wielu urządzeniach Uczenie modeli za pomocą wielu urządzeń Zrównoleglanie modelu Zrównoleglanie danych Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania Uczenie modelu za pomocą klastra TensorFlow Realizowanie dużych grup zadań uczenia za pomocą usługi Vertex AI Strojenie hiperparametrów w usłudze Vertex AI
Sygnatura czytelni BWEAiI: XII E 131
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154703 N (1 egz.)
Książka
W koszyku
Wydanie 3. odnosi się do oryginału.
Indeks.
Pierwsze kroki z uczeniem maszynowym w Pythonie Różnice między uczeniem maszynowym a automatyką Nadmierne i niedostateczne dopasowanie modelu oraz kompromis między obciążeniem a wariancją Zapobieganie nadmiernemu dopasowaniu poprzez weryfikację krzyżową Zapobieganie nadmiernemu dopasowaniu za pomocą regularyzacji Zapobieganie nadmiernemu dopasowaniu poprzez selekcję cech i redukcję wymiarowości Wstępne przetwarzanie danych i inżynieria cech Wstępne przetwarzanie i eksploracja danych Inżynieria cech Łączenie modeli Głosowanie i uśrednianie Agregacja bootstrap Wzmacnianie Składowanie Instalacja i konfiguracja oprogramowania Przygotowanie Pythona i środowiska pracy Instalacja najważniejszych pakietów Pythona Wprowadzenie do pakietu TensorFlow 2 Tworzenie systemu rekomendacji filmów na bazie naiwnego klasyfikatora Bayesa Pierwsze kroki z klasyfikacją Klasyfikacja binarna Klasyfikacja wieloklasowa Klasyfikacja wieloetykietowa Naiwny klasyfikator Bayesa Twierdzenie Bayesa w przykładach Mechanizm naiwnego klasyfikatora Bayesa Implementacja naiwnego klasyfikatora Bayesa Implementacja od podstaw Implementacja z wykorzystaniem pakietu scikit-learn Budowanie systemu rekomendacyjnego na bazie klasyfikatora Bayesa Ocena jakości klasyfikacji Strojenie modeli poprzez weryfikację krzyżową Rozpoznawanie twarzy przy użyciu maszyny wektorów nośnych Określanie granic klas za pomocą maszyny wektorów nośnych Scenariusz 1. Określenie hiperpłaszczyzny rozdzielającej Scenariusz 2. Określenie optymalnej hiperpłaszczyzny rozdzielającej Scenariusz 3. Przetwarzanie punktów odstających Implementacja maszyny wektorów nośnych Scenariusz 4. Więcej niż dwie klasy Scenariusz 5. Rozwiązywanie nierozdzielnego liniowo problemu za pomocą jądra Wybór między jądrem liniowym a radialną funkcją bazową Klasyfikowanie zdjęć twarzy za pomocą maszyny wektorów nośnych Badanie zbioru zdjęć twarzy Tworzenie klasyfikatora obrazów opartego na maszynie wektorów nośnych Zwiększanie skuteczności klasyfikatora obrazów za pomocą analizy głównych składowych Klasyfikacja stanu płodu w kardiotokografii Prognozowanie kliknięć reklam internetowych przy użyciu algorytmów drzewiastych Wprowadzenie do prognozowania kliknięć reklam Wprowadzenie do dwóch typów danych: liczbowych i kategorialnych Badanie drzewa decyzyjnego od korzeni do liści Budowanie drzewa decyzyjnego Wskaźniki jakości podziału zbioru Implementacja drzewa decyzyjnego od podstaw Implementacja drzewa decyzyjnego za pomocą biblioteki scikit-learn Prognozowanie kliknięć reklam za pomocą drzewa decyzyjnego Gromadzenie drzew decyzyjnych: las losowy Gromadzenie drzew decyzyjnych: drzewa ze wzmocnieniem gradientowym Prognozowanie kliknięć reklam internetowych przy użyciu regresji logistycznej Klasyfikowanie danych z wykorzystaniem regresji logistycznej Wprowadzenie do funkcji logistycznej Przejście od funkcji logistycznej do regresji logistycznej Trening modelu opartego na regresji logistycznej Trening modelu opartego na regresji logistycznej z gradientem prostym Prognozowanie kliknięć reklam z wykorzystaniem regresji logistycznej z gradientem prostym Trening modelu opartego na regresji logistycznej ze stochastycznym gradientem prostym Trening modelu opartego na regresji logistycznej z regularyzacją Selekcja cech w regularyzacji L1 Trening modelu na dużym zbiorze danych z uczeniem online Klasyfikacja wieloklasowa Implementacja regresji logistycznej za pomocą pakietu TensorFlow Selekcja cech z wykorzystaniem lasu losowego Skalowanie modelu prognozującego do terabajtowych dzienników kliknięć Podstawy Apache Spark Komponenty Instalacja Uruchamianie i wdrażanie programów Programowanie z wykorzystywaniem modułu PySpark Trenowanie modelu na bardzo dużych zbiorach danych za pomocą narzędzia Apache Spark Załadowanie danych o kliknięciach reklam Podzielenie danych i umieszczenie ich w pamięci Zakodowanie "1 z n" cech kategorialnych Trening i testy modelu regresji logistycznej Inżynieria cech i wartości kategorialnych przy użyciu narzędzia Apache Spark Mieszanie cech kategorialnych Interakcja cech, czyli łączenie zmiennych Prognozowanie cen akcji za pomocą algorytmów regresji Krótkie wprowadzenie do giełdy i cen akcji Co to jest regresja? Pozyskiwanie cen akcji Pierwsze kroki z inżynierią cech Pozyskiwanie danych i generowanie cech Szacowanie za pomocą regresji liniowej Jak działa regresja liniowa? Implementacja regresji liniowej od podstaw Implementacja regresji liniowej z wykorzystaniem pakietu scikit-learn Implementacja regresji liniowej z wykorzystaniem pakietu TensorFlow Prognozowanie za pomocą regresyjnego drzewa decyzyjnego Przejście od drzewa klasyfikacyjnego do regresyjnego Implementacja regresyjnego drzewa decyzyjnego Implementacja lasu regresyjnego Prognozowanie za pomocą regresji wektorów nośnych Implementacja regresji wektorów nośnych Ocena jakości regresji Prognozowanie cen akcji za pomocą trzech algorytmów regresji Prognozowanie cen akcji za pomocą sieci neuronowych Demistyfikacja sieci neuronowych Pierwsze kroki z jednowarstwową siecią neuronową Funkcje aktywacji Propagacja wstecz Wprowadzanie kolejnych warstw do sieci neuronowej i uczenie głębokie Tworzenie sieci neuronowej Implementacja sieci neuronowej od podstaw Implementacja sieci neuronowej przy użyciu pakietu scikit-learn Implementacja sieci neuronowej przy użyciu pakietu TensorFlow Dobór właściwej funkcji aktywacji Zapobieganie nadmiernemu dopasowaniu sieci Dropout Wczesne zakończenie treningu Prognozowanie cen akcji za pomocą sieci neuronowej Trening prostej sieci neuronowej Dostrojenie parametrów sieci neuronowej. Badanie 20 grup dyskusyjnych przy użyciu technik analizy tekstu
Jak komputery rozumieją ludzi, czyli przetwarzanie języka naturalnego Czym jest przetwarzanie języka naturalnego? Historia przetwarzania języka naturalnego Zastosowania przetwarzania języka naturalnego Przegląd bibliotek Pythona i podstawy przetwarzania języka naturalnego Instalacja najważniejszych bibliotek Korpusy Tokenizacja Oznaczanie części mowy Rozpoznawanie jednostek nazwanych Stemming i lematyzacja Modelowanie semantyczne i tematyczne Pozyskiwanie danych z grup dyskusyjnych Badanie danych z grup dyskusyjnych Przetwarzanie cech danych tekstowych Zliczanie wystąpień wszystkich tokenów Wstępne przetwarzanie tekstu Usuwanie stop-słów Upraszczanie odmian Wizualizacja danych tekstowych z wykorzystaniem techniki t-SNE Co to jest redukcja wymiarowości? Redukcja wymiarowości przy użyciu techniki t-SNE Rozdział 10. Wyszukiwanie ukrytych tematów w grupach dyskusyjnych poprzez ich klastrowanie i modelowanie tematyczne Nauka bez wskazówek, czyli uczenie nienadzorowane Klastrowanie grup dyskusyjnych metodą k-średnich Jak działa klastrowanie metodą k-średnich? Implementacja klastrowania metodą k-średnich od podstaw Implementacja klastrowania metodą k-średnich z wykorzystaniem pakietu scikit-learn Dobór wartości k Klastrowanie danych z grup dyskusyjnych metodą k-średnich Odkrywanie ukrytych tematów grup dyskusyjnych Modelowanie tematyczne z wykorzystaniem nieujemnej faktoryzacji macierzy Modelowanie tematyczne z wykorzystaniem ukrytej alokacji Dirichleta Proces rozwiązywania problemów uczenia maszynowego Dobre praktyki przygotowywania danych Dobra praktyka nr 1. Dokładne poznanie celu projektu Dobra praktyka nr 2. Zbieranie wszystkich istotnych pól Dobra praktyka nr 3. Ujednolicenie danych Dobra praktyka nr 4. Opracowanie niekompletnych danych Dobra praktyka nr 5. Przechowywanie dużych ilości danych Dobre praktyki tworzenia zbioru treningowego Dobra praktyka nr 6. Oznaczanie cech kategorialnych liczbami Dobra praktyka nr 7. Rozważenie kodowania cech kategorialnych Dobra praktyka nr 8. Rozważenie selekcji cech i wybór odpowiedniej metody Dobra praktyka nr 9. Rozważenie redukcji wymiarowości i wybór odpowiedniej metody Dobra praktyka nr 10. Rozważenie normalizacji cech Dobra praktyka nr 11. Inżynieria cech na bazie wiedzy eksperckiej Dobra praktyka nr 12. Inżynieria cech bez wiedzy eksperckiej Dobra praktyka nr 13. Dokumentowanie procesu tworzenia cech Dobra praktyka nr 14. Wyodrębnianie cech z danych tekstowych Dobre praktyki trenowania, oceniania i wybierania modelu Dobra praktyka nr 15. Wybór odpowiedniego algorytmu początkowego Dobra praktyka nr 16. Zapobieganie nadmiernemu dopasowaniu Dobra praktyka nr 17. Diagnozowanie nadmiernego i niedostatecznego dopasowania Dobra praktyka nr 18. Modelowanie dużych zbiorów danych Dobre praktyki wdrażania i monitorowania modelu Dobra praktyka nr 19. Zapisywanie, ładowanie i wielokrotne stosowanie modelu Dobra praktyka nr 20. Monitorowanie skuteczności modelu Dobra praktyka nr 21. Regularne aktualizowanie modelu Kategoryzacja zdjęć odzieży przy użyciu konwolucyjnej sieci neuronowej Bloki konstrukcyjne konwolucyjnej sieci neuronowej Warstwa konwolucyjna Warstwa nieliniowa Warstwa redukująca Budowanie konwolucyjnej sieci neuronowej na potrzeby klasyfikacji Badanie zbioru zdjęć odzieży Klasyfikowanie zdjęć odzieży za pomocą konwolucyjnej sieci neuronowej Tworzenie sieci Trening sieci Wizualizacja filtrów konwolucyjnych Wzmacnianie konwolucyjnej sieci neuronowej poprzez uzupełnianie danych Odwracanie obrazów w poziomie i pionie Obracanie obrazów Przesuwanie obrazów Usprawnianie klasyfikatora obrazów poprzez uzupełnianie danych Prognozowanie sekwencji danych przy użyciu rekurencyjnej sieci neuronowej Wprowadzenie do uczenia sekwencyjnego Architektura rekurencyjnej sieci neuronowej na przykładzie Mechanizm rekurencyjny Sieć typu "wiele do jednego" Sieć typu "jedno do wielu" Sieć synchroniczna typu "wiele do wielu" Sieć niesynchroniczna typu "wiele do wielu" Trening rekurencyjnej sieci neuronowej Długoterminowe zależności i sieć LSTM Analiza recenzji filmowych za pomocą sieci neuronowej Analiza i wstępne przetworzenie recenzji Zbudowanie prostej sieci LSTM Poprawa skuteczności poprzez wprowadzenie dodatkowych warstw Pisanie nowej powieści "Wojna i pokój" za pomocą rekurencyjnej sieci neuronowej Pozyskanie i analiza danych treningowych Utworzenie zbioru treningowego dla generatora tekstu Utworzenie generatora tekstu Trening generatora tekstu Zaawansowana analiza języka przy użyciu modelu Transformer Architektura modelu Samouwaga . Podejmowanie decyzji w skomplikowanych warunkach z wykorzystaniem uczenia przez wzmacnianie Przygotowanie środowiska do uczenia przez wzmacnianie Instalacja biblioteki PyTorch Instalacja narzędzi OpenAI Gym Wprowadzenie do uczenia przez wzmacnianie z przykładami Komponenty uczenia przez wzmacnianie Sumaryczna nagroda Algorytmy uczenia przez wzmacnianie Problem FrozenLake i programowanie dynamiczne Utworzenie środowiska FrozenLake Rozwiązanie problemu przy użyciu algorytmu iteracji wartości Rozwiązanie problemu przy użyciu algorytmu iteracji polityki Metoda Monte Carlo uczenia przez wzmacnianie Utworzenie środowiska Blackjack Ocenianie polityki w metodzie Monte Carlo Sterowanie Monte Carlo z polityką Problem taksówkarza i algorytm Q-uczenia Utworzenie środowiska Taxi Implementacja algorytmu Q-uczenia
Sygnatura czytelni BWEAiI: XII Ł 214
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153052 (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności