Sztuczna sieć neuronowa
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(16)
Forma i typ
Książki
(16)
Publikacje naukowe
(8)
Publikacje dydaktyczne
(5)
Publikacje fachowe
(5)
Publikacje popularnonaukowe
(1)
Dostępność
dostępne
(10)
tylko na miejscu
(6)
nieokreślona
(2)
Placówka
Wypożyczalnia
(11)
Biblioteka WB
(1)
Magazyn
(1)
Biblioteka WEAiI
(5)
Autor
Grażyński Andrzej
(2)
Norvig Peter
(2)
Osowski Stanisław (1948- )
(2)
Russell Stuart J. (1962- )
(2)
Sawka Krzysztof
(2)
Adamczyk-Karwowska Agnieszka
(1)
Atienza Rowel
(1)
Brzozowski Michał (transport)
(1)
Buczyński Przemysław
(1)
Fidali Marek
(1)
Géron Aurélien
(1)
Hendzel Zenon
(1)
Kneusel Ronald
(1)
Krawczyk Ryszard (mechanika)
(1)
Krzywicki Tomasz (informatyk)
(1)
Kurp Feliks
(1)
Osiński Jędrzej (informatyk)
(1)
Rymarczyk Mieczysław
(1)
Siedlecki Juliusz
(1)
Szmurło Robert
(1)
Słania Jacek
(1)
Tkacz Magdalena
(1)
Trojnacki Maciej
(1)
Wieczorek Tadeusz (elektrotechnika)
(1)
Ślązak Benedykt
(1)
Rok wydania
2020 - 2024
(12)
2000 - 2009
(2)
1990 - 1999
(2)
Okres powstania dzieła
2001-
(13)
1989-2000
(1)
Kraj wydania
Polska
(16)
Język
polski
(16)
Odbiorca
Szkoły wyższe
(5)
Programiści
(2)
Informatycy
(1)
Temat
Budownictwo
(2411)
Zarządzanie
(2036)
Matematyka
(1929)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1791)
Sztuczna sieć neuronowa
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1012)
Turystyka
(952)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(931)
Automatyka
(916)
Język angielski
(871)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(759)
Technika
(740)
Konstrukcje budowlane
(726)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Transport
(673)
Piłka nożna
(672)
Elektroenergetyka
(667)
Architektura
(637)
Marketing
(636)
Innowacje
(619)
Naprężenia i odkształcenia
(612)
OZE
(606)
Programowanie (informatyka)
(589)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(566)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Produkcja
(517)
Materiałoznawstwo
(516)
Symulacja
(515)
Inwestycje
(506)
Praca
(503)
Analiza matematyczna
(495)
Zarządzanie jakością
(495)
Zarządzanie zasobami ludzkimi (HRM)
(494)
Dzieci
(489)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(467)
Psychologia
(467)
Szkolnictwo wyższe
(466)
Przedsiębiorstwo
(465)
Internet
(464)
Modele matematyczne
(464)
Metale
(462)
Nauka
(455)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(428)
Mechanika budowli
(424)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(382)
Banki
(378)
BHP
(375)
Rachunkowość zarządcza
(374)
Gatunek
Podręcznik
(9)
Opracowanie
(3)
Monografia
(2)
Raport z badań
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(10)
Matematyka
(5)
Inżynieria i technika
(3)
Architektura i budownictwo
(1)
Transport i logistyka
(1)
16 wyników Filtruj
Książka
W koszyku
Wydanie 2. odnosi się do oryginału.
Bibliografie, netografie przy większości rozdziałów.
Dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie.
Wprowadzenie do uczenia głębokiego z Keras Dlaczego Keras jest idealną biblioteką do uczenia głębokiego? Instalowanie biblioteki Keras i TensorFlow Sieci MLP, CNN i RNN Różnice między MLP, CNN i RNN Perceptron wielowarstwowy (MLP) Zbiór danych MNIST Model klasyfikatora cyfr MNIST Budowanie modelu przy użyciu MLP i Keras Regularyzacja Funkcja aktywacji i funkcja straty Optymalizacja Ocena wydajności Podsumowanie modelu MLP Splotowa (konwolucyjna) sieć neuronowa Splot Operacje łączenia Ocena wydajności i podsumowanie modelu Rekurencyjna sieć neuronowa Głębokie sieci neuronowe Funkcyjne API Keras Tworzenie modelu o dwóch wejściach i jednym wyjściu Głęboka sieć resztkowa (ResNet) ResNet v2 Gęsto połączona sieć splotowa (DenseNet) Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10 Sieci autokodujące Zasada działania sieci autokodującej Budowanie sieci autokodującej za pomocą Keras Autokodujące sieci odszumiające (DAE) Automatyczne kolorowanie z użyciem autokodera . Generujące sieci współzawodniczące GAN - informacje wprowadzające Podstawy GAN Implementacja DCGAN w Keras Warunkowe sieci GAN Ulepszone sieci GAN Sieć GAN Wassersteina Funkcje odległości Funkcja odległości w GAN Wykorzystanie funkcji straty Wassersteina Implementacja WGAN przy użyciu Keras GAN z metodą najmniejszych kwadratów (LSGAN) Pomocniczy klasyfikator GAN (ACGAN) Rozplątane reprezentacje w GAN Rozplątane reprezentacje Sieć InfoGAN Implementacja InfoGAN w Keras Ocena rezultatów działania generatora sieci InfoGAN Sieci StackedGAN Implementacja sieci StackedGAN w Keras Ocena rezultatów działania generatora StackedGAN Międzydomenowe GAN Podstawy sieci CycleGAN Model sieci CycleGAN Implementacja CycleGAN przy użyciu Keras Wyjścia generatora CycleGAN CycleGAN na zbiorach danych MNIST i SVHN . Wariacyjne sieci autokodujące (VAE) Podstawy sieci VAE Wnioskowanie wariacyjne Podstawowe równanie Optymalizacja Sztuczka z reparametryzacją Testowanie dekodera VAE w Keras Korzystanie z CNN w sieciach autokodujących Warunkowe VAE (CVAE) B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami Uczenie głębokie ze wzmocnieniem Podstawy uczenia ze wzmocnieniem (RL) Wartość Q Przykład Q-uczenia Q-uczenie w języku Python Otoczenie niedeterministyczne Uczenie z wykorzystaniem różnic czasowych Q-uczenie w Open AI Gym 9.6 Głęboka sieć Q (DQN) Implementacja DQN w Keras Q-uczenie podwójnej sieci DQN (DDQN) Strategie w metodach gradientowych Twierdzenie o gradiencie strategii Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE) Metoda WZMOCNIENIE z wartością bazową Metoda Aktor-Krytyk Metoda Aktor-Krytyk z przewagą (A2C) Metody strategii gradientowych przy użyciu Keras Ocena wydajności metod strategii gradientowej Wykrywanie obiektów Wykrywanie obiektów Pole zakotwiczenia Referencyjne pola zakotwiczenia Funkcje strat Architektura modelu SSD Architektura modelu SSD w Keras Obiekty SSD w Keras Model SSD w Keras Model generatora danych w Keras Przykładowy zbiór danych Szkolenie modelu SSD Algorytm niemaksymalnego tłumienia (NMS) Walidacja modelu SSD Segmentacja semantyczna Segmentacja Sieć do segmentacji semantycznej Sieć do segmentacji semantycznej w Keras Przykładowy zbiór danych Walidacja segmentacji semantycznej Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej Informacja wzajemna i entropia Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych Sieć koderów do grupowania nienadzorowanego Implementacja nienadzorowanego grupowania w Keras Walidacja na zbiorze cyfr MNIST Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
Sygnatura czytelni BWEAiI: XII Ą 151
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153004 (1 egz.)
Brak okładki
Książka
W koszyku
Na okładce: 2023.
Bibliografia, netografia na stronach 80-85.
1.Samochód autonomiczny i jazda autonomiczna 2.1. Definicja samochodu autonomicznego 2.2 Historia samochodów autonomicznych 3.Działanie samochodu autonomicznego 3.1Systemy samochodu autonomicznego 3.2Samochód autonomiczny i j ego relacje z otoczeniem 4.Sensory wykorzystywane w samochodach autonomicznych 4.1Czujniki zabudowane w pojeździe 4.2Czujnik LiDAR 4.3Kamera (monowizja i stereowizja) 4.4Radar i sonar 4.5Sensory - podsumowanie 5.Niekorzystne warunki atmosferyczne, a działanie sensorów wykorzystywanych w samochodach autonomicznych 5.1Kamera 5.2LiDAR 5.3Radar 5.4Niekorzystne warunki atmosferyczne, a działanie sensorów samochodu autonomicznego - podsumowanie 6.System percepcji samochodu autonomicznego 6.1System lokalizacji i określenia pozycji na mapie (SLAM) 6.2Mapy drogi (wysokiej rozdzielczości) 6.2.1 Mapy punktów orientacyjnych 6.2.2 Mapy skonstruowane w oparciu o siatkę zajętości 6.3Sztuczne sieci neuronowe 6.4Wykorzystanie LiDARu w zagadnieniach jazdy autonomicznej 6.4.1Wykorzystanie LiDARU do zadań lokalizacji i tworzenia obrazu otoczenia 6.4.2Wykorzystanie LiDARu do wykrywania i śledzenia ruchomych obiektów 6.5Wykorzystanie obrazu z kamer w zagadnieniach jazdy autonomicznej 6.6Łączenie danych z LiDARu, kamery i RADARu 6.7Detekcja sygnalizatorów i znaków drogowych 6.8System percepcji samochodu autonomicznego - podsumowanie 7.System realizacji działania
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153820 N (1 egz.)
Brak okładki
Książka
W koszyku
(Monografie, Studia, Rozprawy, ISSN 1897-2691 ; M158)
(Inżynieria Lądowa i Transport)
Bibliografia na stronach 154-165.
Przegląd stanu wiedzy w zakresie mieszanek mineralno-cementowych z asfaltem spienionym Rodzaje recyklowanych mieszanek na zimno Technologia wytwarzania recyklowanych mieszanek na zimno Recykling głęboki na zimno w wytwórni Recykling głęboki na zimno na miejscu Kierunki modyfikacji składu mieszanek mineralno-cementowych z asfaltem spienionym Wpływ cementu portlandzkiego na właściwości mieszanki MC AS Wpływ asfaltu spienionego na kształtowanie właściwości mieszanki MCAS Spoiwo hydrauliczne jako regulator sztywności mieszanek MCAS Efekt oddziaływania pyłów mineralnych na właściwości mieszanek mineralno-cementowych z asfaltem spienionym Rola kruszywa z recyklingu w kształtowaniu właściwości mieszanek mineralno-cementowych z asfaltem spienionym Potencjał redyspergowalnego proszku polimerowego w tworzeniustruktury m02e być powielanakompozytu mineralno-polimerowego z asfaltem spienionym Charakterystyka strukturalno-mechanicznych właściwości recyklowanej mieszanki na zimno z dodatkiem proszku polimerowego Charakterystyka redyspergowalnego proszku polimerowego EVA Skład mieszanki MCAS z dodatkiem redyspergowalnego proszku polimerowego Charakterystyka oddziaływania proszku polimerowego na zawartość wolnej przestrzeni mieszanki MCAS Właściwości mechaniczne mieszanki MCAS z dodatkiem proszku polimerowego EVA Wodoodpomość i mrozoodporność mieszanki MCAS z dodatkiem proszku polimerowego EVA Wyznaczenie granicznej wartości naprężenia dla zakresu liniowej iepkosprężystości (LVE) w mieszankach MCAS Liniowa lepkosprężystość Wpływ proszku polimerowego na zakres LVE mieszanki MCAS Efekty reologiczne mieszanki MCAS z proszkiem polimerowym Odporność na pękanie mieszanki MCAS z proszkiem polimerowym Optymalizacja ilości proszku polimerowego w mieszance MCAS Grupowanie mieszanek MCAS z wykorzystaniem sieci neuronowej Samoorganizująca się sieć Kohonena Wyniki badań dla mieszanek MCAS Wyniki badań betonów asfaltowych Rezultaty grupowania Analiza wstępna i porządkowanie zbioru wejściowego Wybór topologii Profilowanie wzorców Grupowanie mieszanek MCAS Zalecenia i rekomendacje dla mieszanki MCAS
Sygnatura czytelni BWB: V Ł 103
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WB
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. B 5509 (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn, Keras i TensorFlow / Aurélien Géron ; przekład: Krzysztof Sawka. - Gliwice : Helion, 2023. - 774, [2] strony : fotografie, ilustracje, wykresy ; 24 cm.
Wydanie 3. odnosi się do oryginału. Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Indeks.
Podstawy uczenia maszynowego Nadzorowanie uczenia Uczenie wsadowe i uczenie przyrostowe Uczenie z przykładów i uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Testowanie i ocenianie Strojenie hiperparametrów i dobór modelu Niezgodność danych Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz wskaźnik wydajności Zdobądź dane Uruchom przykładowy kod w serwisie Google Colab Zapisz zmiany w kodzie i w danych Zalety i wady interaktywności Kod w książce a kod w notatnikach Jupyter Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Zwizualizuj dane geograficzne Poszukaj korelacji Eksperymentuj z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyść dane Obsługa tekstu i atrybutów kategorialnych Skalowanie i przekształcanie cech Niestandardowe transformatory Potoki transformujące Wybierz i wytrenuj model Trenuj i oceń model za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizowanie najlepszych modeli i ich błędów Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Regresja metodą elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Cechy podobieństwa Gaussowskie jądro RBF Klasy SVM i złożoność obliczeniowa Regresja SVM Mechanizm działania liniowych klasyfikatorów SVM Problem dualny Kernelizowane maszyny SVM 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Wrażliwość na orientację osi Drzewa decyzyjne mają znaczną wariancję 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Wzmacnianie gradientu w oparciu o histogram Kontaminacja 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Rzutowanie na d wymiarów
Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Losowa analiza PCA Przyrostowa analiza PCA Rzutowanie losowe Algorytm LLE Inne techniki redukowania wymiarowości 9. Techniki uczenia nienadzorowanego Analiza skupień: algorytm centroidów i DBSCAN Algorytm centroidów Granice algorytmu centroidów Analiza skupień w segmentacji obrazu Analiza skupień w uczeniu półnadzorowanym Algorytm DBSCAN Mieszaniny gaussowskie Wykrywanie anomalii za pomocą mieszanin gaussowskich Wyznaczanie liczby skupień Bayesowskie modele mieszane Sieci neuronowe i uczenie głębokie 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Regresyjne perceptrony wielowarstwowe Klasyfikacyjne perceptrony wielowarstwowe Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego Zapisywanie i odczytywanie modelu Stosowanie wywołań zwrotnych Wizualizacja danych za pomocą narzędzia TensorBoard Dostrajanie hiperparametrów sieci neuronowej Liczba warstw ukrytych Liczba neuronów w poszczególnych warstwach ukrytych Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjalizacje wag Glorota i He Lepsze funkcje aktywacji Normalizacja wsadowa Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Uczenie transferowe w interfejsie Keras Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizator Adam AdaMax Nadam AdamW Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób zapobiegania przetrenowaniu Regularyzacja l1 i l2 Porzucanie Regularyzacja typu Monte Carlo (MC) Regularyzacja typu max-norm Modele niestandardowe i uczenie za pomocą modułu TensorFlow Krótkie omówienie modułu TensorFlow Korzystanie z modułu TensorFlow jak z biblioteki NumPy Tensory i operacje Tensory a biblioteka NumPy Konwersje typów Zmienne Dostosowywanie modeli i algorytmów uczenia Niestandardowe funkcje straty Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia Niestandardowe wskaźniki Niestandardowe warstwy Niestandardowe modele Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu Obliczanie gradientów za pomocą różniczkowania automatycznego Niestandardowe pętle uczenia Funkcje i grafy modułu TensorFlow AutoGraph i kreślenie Reguły związane z funkcją TF Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow Interfejs tf.data Łączenie przekształceń Tasowanie danych Przeplatanie wierszy z różnych plików Wstępne przetwarzanie danych Składanie wszystkiego w całość Pobieranie wstępne Stosowanie zestawu danych z interfejsem Keras Format TFRecord Skompresowane pliki TFRecord Wprowadzenie do buforów protokołów Bufory protokołów w module TensorFlow Wczytywanie i analizowanie składni obiektów Example Obsługa list list za pomocą bufora protokołów SequenceExample Warstwy przetwarzania wstępnego Keras Warstwa Normalization Warstwa Discretization Warstwa CategoryEncoding Warstwa StringLookup Warstwa Hashing Kodowanie cech kategorialnych za pomocą wektorów właściwościowych Wstępne przetwarzanie tekstu Korzystanie z wytrenowanych składników modelu językowego Warstwy wstępnego przetwarzania obrazów Projekt TensorFlow Datasets (TFDS) Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych Struktura kory wzrokowej Warstwy splotowe Filtry Stosy map cech Implementacja warstw splotowych w interfejsie Keras Zużycie pamięci operacyjnej Warstwa łącząca Implementacja warstw łączących w interfejsie Keras Architektury splotowych sieci neuronowych LeNet-5 AlexNet
GoogLeNet VGGNet ResNet Xception SENet Wybór właściwej struktury CNN Implementacja sieci ResNet-34 za pomocą interfejsu Keras Korzystanie z gotowych modeli w interfejsie Keras Gotowe modele w uczeniu transferowym Klasyfikowanie i lokalizowanie Wykrywanie obiektów W pełni połączone sieci splotowe Sieć YOLO Śledzenie obiektów Segmentacja semantyczna Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych Neurony i warstwy rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Uczenie sieci rekurencyjnych Prognozowanie szeregów czasowych Rodzina modeli ARMA Przygotowywanie danych dla modeli uczenia maszynowego Prognozowanie za pomocą modelu liniowego Prognozowanie za pomocą prostej sieci rekurencyjnej Prognozowanie za pomocą głębokich sieci rekurencyjnych Prognozowanie wielowymiarowych szeregów czasowych Prognozowanie kilka taktów w przód Prognozowanie za pomocą modelu sekwencyjnego Obsługa długich sekwencji Zwalczanie problemu niestabilnych gradientów Zwalczanie problemu pamięci krótkotrwałej Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej Tworzenie zestawu danych uczących Budowanie i uczenie modelu char-RNN Generowanie sztucznego tekstu szekspirowskiego Stanowe sieci rekurencyjne Analiza opinii Maskowanie Korzystanie z gotowych reprezentacji właściwościowych i modeli językowych Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego Dwukierunkowe sieci rekurencyjne Przeszukiwanie wiązkowe Mechanizmy uwagi Liczy się tylko uwaga: pierwotna architektura transformatora Zatrzęsienie modeli transformatorów Transformatory wizualne Biblioteka Transformers firmy Hugging Face Autokodery, generatywne sieci przeciwstawne i modele rozpraszające Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja autokodera stosowego za pomocą interfejsu Keras Wizualizowanie rekonstrukcji Wizualizowanie zestawu danych Fashion MNIST Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Wiązanie wag Uczenie autokoderów pojedynczo Autokodery splotowe Autokodery odszumiające Autokodery rzadkie Autokodery wariacyjne Generowanie obrazów Fashion MNIST Generatywne sieci przeciwstawne Problemy związane z uczeniem sieci GAN Głębokie splotowe sieci GAN Rozrost progresywny sieci GAN Sieci StyleGAN Modele rozpraszające Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie strategii Wprowadzenie do narzędzia OpenAI Gym Sieci neuronowe jako strategie Ocenianie czynności: problem przypisania zasługi Gradienty strategii Procesy decyzyjne Markowa Uczenie metodą różnic czasowych Q-uczenie Przybliżający algorytm Q-uczenia i Q-uczenie głębokie Implementacja modelu Q-uczenia głębokiego Odmiany Q-uczenia głębokiego Ustalone Q-wartości docelowe Podwójna sieć DQN Odtwarzanie priorytetowych doświadczeń Walcząca sieć DQN Przegląd popularnych algorytmów RN Wielkoskalowe uczenie i wdrażanie modeli TensorFlow Eksploatacja modelu TensorFlow Korzystanie z systemu TensorFlow Serving Tworzenie usługi predykcyjnej na platformie Vertex AI Uwierzytelnianie i autoryzacja w serwisie GCP Wykonywanie zadań predykcji wsadowych w usłudze Vertex AI Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym Przetwarzanie modelu na stronie internetowej Przyspieszanie obliczeń za pomocą procesorów graficznych Zakup własnej karty graficznej Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji i zmiennych na urządzeniach Przetwarzanie równoległe na wielu urządzeniach Uczenie modeli za pomocą wielu urządzeń Zrównoleglanie modelu Zrównoleglanie danych Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania Uczenie modelu za pomocą klastra TensorFlow Realizowanie dużych grup zadań uczenia za pomocą usługi Vertex AI Strojenie hiperparametrów w usłudze Vertex AI
Sygnatura czytelni BWEAiI: XII E 131
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154703 N (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 119723 LE N (1 egz.)
Książka
W koszyku
Deep learning : praktyczne wprowadzenie z zastosowaniem środowiska Pythona / Ron Kneusel ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 472 strony : fotografie, ilustracje, wykresy ; 23 cm.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: No starch press.
Indeks.
Środowisko operacyjne NumPy scikit-learn Keras i TensorFlow Instalacja narzędzi Podstawy algebry liniowej Wektory Macierze Mnożenie wektorów i macierzy Statystyka i prawdopodobieństwo Statystyka opisowa Rozkłady prawdopodobieństwa Testy statystyczne Procesory graficzne (GPU) 2. Korzystanie z Pythona Interpreter Pythona Instrukcje i białe znaki Zmienne i podstawowe struktury danych Przedstawianie liczb Zmienne Łańcuchy znaków Listy Słowniki Struktury sterowania Instrukcje if-elif-else Pętle for Pętle while Instrukcje break i continue Instrukcja with Obsługa błędów za pomocą bloków try-except Funkcje Moduły 3. Biblioteka NumPy Dlaczego NumPy? Tablice a listy Testowanie szybkości tablic i list Definiowanie tablicy za pomocą funkcji, np. array Definiowanie tablic wypełnionych zerami i jedynkami Dostęp do elementów tablicy Indeksowanie tablicowe Uzyskiwanie wycinków tablicy Wielokropek Operatory i rozgłaszanie Dane wejściowe i wyjściowe tablic Liczby losowe Biblioteka NumPy i obrazy 4. Praca z danymi Klasy i etykiety Cechy i wektory cech Dobór cech i klątwa wymiarowości Własności dobrego zestawu danych Interpolacja i ekstrapolacja Główny rozkład prawdopodobieństwa Rozkład a priori Przykłady mylące Rozmiar zestawu danych Przygotowanie danych Skalowanie cech Brakujące cechy Dane uczące, walidacyjne i testowe Trzy podzbiory Dzielenie zestawu danych k-krotny sprawdzian krzyżowy Analiza danych Wyszukiwanie problemów z danymi 5. Budowanie zestawów danych Kosaćce (zestaw danych Iris) Nowotwory piersi (zestaw danych Breast Cancer) Cyfry zapisane pismem odręcznym (zestaw danych MNIST) Różne obrazy (zestaw danych CIFAR-10) Rozszerzanie danych Dlaczego należy rozszerzać dane uczące? Sposoby rozszerzania danych Rozszerzanie zestawu danych Iris Rozszerzanie zestawu danych CIFAR-10 6. Klasyczne uczenie maszynowe Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne i lasy losowe Rekurencja Budowanie drzew decyzyjnych Lasy losowe Maszyny wektorów nośnych Marginesy Wektory nośne Optymalizacja Jądra 7. Eksperymentowanie z klasycznymi modelami Eksperymenty z użyciem zestawu danych Iris Testowanie klasycznych modeli Implementacja klasyfikatora najbliższego centroidu Eksperymenty z użyciem zestawu danych Breast Cancer Dwa pierwsze przebiegi testowe Skutek losowych podziałów Dodawanie k-krotnego sprawdzianu krzyżowego Poszukiwanie hiperparametrów Eksperymenty z użyciem zestawu danych MNIST Testowanie klasycznych modeli Analiza czasu działania Eksperymenty z głównymi składowymi analizy PCA Tasowanie zestawu danych Podsumowanie klasycznych modeli Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Lasy losowe Maszyny wektorów nośnych Kiedy używać klasycznych modeli? Korzystanie z małych zestawów danych Ograniczone zasoby obliczeniowe Dostęp do wyjaśnialnych modeli Praca z danymi wektorowymi 8. Wprowadzenie do sieci neuronowych Anatomia sieci neuronowej Neuron Funkcje aktywacji Architektura sieci Warstwy wyjściowe Wagi i obciążenia Implementacja prostej sieci neuronowej Przygotowanie zestawu danych Implementacja sieci neuronowej Uczenie i testowanie sieci neuronowej 9. Uczenie sieci neuronowej Algorytm gradientu prostego Wyszukiwanie minimów Aktualizowanie wag Stochastyczny spadek wzdłuż gradientu Grupy i minigrupy Funkcje wypukłe i niewypukłe Kończenie uczenia Aktualizowanie współczynnika uczenia Momentum Propagacja wsteczna Propagacja wsteczna - ujęcie pierwsze Propagacja wsteczna - ujęcie drugie Funkcje straty Błąd bezwzględny i błąd średniokwadratowy Entropia krzyżowa Inicjalizowanie wag Przetrenowanie i regularyzacja Przetrenowanie Regularyzacja Regularyzacja L2 Porzucanie 10. Eksperymentowanie z sieciami neuronowymi Nasz zestaw danych Klasa MLPClassifier Struktura sieci i funkcje aktywacji Kod Rozmiar grupy Podstawowy współczynnik uczenia Rozmiar zbioru uczącego Regularyzacja L2 Momentum Inicjalizacja wag Kolejność cech Ocenianie modeli Dlaczego dokładność jest niewystarczająca? Macierz pomyłek 2×2 Wskaźniki wyprowadzane z macierzy pomyłek Wyprowadzanie wskaźników na podstawie macierzy pomyłek Interpretowanie modeli za pomocą wskaźników Zaawansowane wskaźniki Informatywność i nacechowanie Wskaźnik F1 Współczynnik kappa Cohena Współczynnik korelacji Matthewsa Implementacja zaawansowanych wskaźników Krzywa charakterystyki operacyjnej odbiornika Dobór modeli Rysowanie wykresu wskaźników Analiza krzywej ROC Porównywanie modeli za pomocą analizy ROC Generowanie krzywej ROC Krzywa precyzji-czułości Przypadki wieloklasowe Rozszerzanie macierzy pomyłek Obliczanie dokładności ważonej Wieloklasowy współczynnik korelacji Matthewsa Wprowadzenie do splotowych sieci neuronowych Dlaczego splotowe sieci neuronowe? Splot Skanowanie za pomocą jądra Splot w przetwarzaniu obrazów Anatomia splotowej sieci neuronowej Różne typy warstw Przepuszczanie danych przez sieć splotową Warstwy splotowe Mechanizm działania warstwy splotowej Korzystanie z warstwy splotowej Wielokrotne warstwy splotowe Inicjalizacja warstwy splotowej Warstwy łączące Warstwy w pełni połączone Pełne warstwy splotowe Eksperymentowanie z biblioteką Keras i zestawem danych MNIST Budowanie sieci splotowych w bibliotece Keras Wczytywanie danych MNIST Budowanie modelu Uczenie i ocena modelu Tworzenie wykresu funkcji błędu Podstawowe eksperymenty Eksperymenty na architekturze Rozmiar zbioru uczącego, minigrup oraz liczba epok Optymalizatory Pełne sieci splotowe Budowa i trenowanie modelu Przygotowanie obrazów testowych Testowanie modelu Potasowane cyfry MNIST Eksperymentowanie z zestawem danych CIFAR-10 Zestaw CIFAR-10 - przypomnienie Praca na pełnym zestawie CIFAR-10 Budowanie modeli Analizowanie modeli Zwierzę czy pojazd? Model binarny czy wieloklasowy? Uczenie transferowe Strojenie modelu Przygotowanie zestawów danych Dostosowanie modelu do strojenia Testowanie modelu Studium przypadku: klasyfikowanie próbek dźwiękowych Budowanie zestawu danych Rozszerzanie zestawu danych Wstępne przetwarzanie danych Klasyfikowanie cech dźwiękowych Modele klasyczne Tradycyjna sieć neuronowa Splotowa sieć neuronowa Spektrogramy Klasyfikowanie spektrogramów Inicjalizacja, regularyzacja i normalizacja wsadowa Analiza macierzy pomyłek
Sygnatura czytelni BWEAiI: XII Ł 215
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153005 (1 egz.)
Brak okładki
Książka
W koszyku
Bibliografie, netografie przy rozdziałach.
1. Wprowadzenie do systemów uczących się 1.1. Uczenie maszynowe 1.2. Uczenie maszynowe a sztuczna inteligencja 1.3. Problemy, które rozwiązuje uczenie maszynowe 1.4. System informacyjny w sensie Pawlaka 1.5. System decyzyjny w sensie Pawlaka 1.6. Idea uczenia maszynowego 1.6.1. Problem uczenia maszynowego 1.6.2. Uczenie klasyfikatora 1.6.3. Wymiar Vapnika-Chervonenkisa 1.6.4. Metoda PAC 1.7. Uczenie nadzorowane 1.8. Uczenie nienadzorowane 1.9. Uczenie półnadzorowane 1.10. Uczenie przez wzmacnianie 1.11. Twierdzenie Nofree lunches 2. Metody wstępnego przetwarzania danych 2.1. Popularne zbiory rzeczywistych danych 2.2. Typy wartości w atrybutach 2.2.1. Typ numeryczny 2.2.2.Typkategorialny 2.3. Oczyszczanie danych 2.3.1. Praca z nieprawidłowymi wartościami 2.3.2. Uzupełnianie brakujących wartości 2.4. Redukcja wymiarowości systemu 2.4.1. Analiza głównych składowych 2.4.2. Nadzorowana redukcja wymiarowości za pomocą liniowej analizy dyskryminacyjnej 2.4.3. Ocena istotności atrybutów za pomocą korelacji 2.4.4. Inne metody redukcji wymiarowości danych 3. Uczenie modeli i ich metryki 3.1. Parametry wydajności 3.1.1. Dokładność globalna 3.1.2. Dokładność zbalansowana 3.1.3. Stopień prawidłowej trafności w klasę decyzyjną 3.1.4. Stopień prawidłowej nietrafności w klasę decyzyjną 3.1.5. Stopień błędnej trafności w klasę decyzyjną 3.1.6. Stopień błędnej nietrafności w klasę decyzyjną 3.1.7. Precyzja 3.1.8. Pełność 3.1.9. Wskaźnik F1 3.1.10. Dobór precyzji i pełności dla modelu 3.1.11. Krzywa ROC 3.2. Funkcje kosztu 3.2.1. Pojęcie funkcji kosztu 3.2.2. Błąd średniokwadratowy 3.2.3. Funkcja Hubera 3.2.4. Binarna entropia krzyżowa 3.2.5. Kategorialna entropia krzyżowa 3.2.6. Funkcja zawiasowa 3.3. Metody oceny wydajności modeli 3.3.1. Metoda "trenuj i testuj" 3.3.2. /t-krotna walidacja krzyżowa 3.3.3. Walidacja krzyżowa Monte Carlo 3.3.4. Wewnętrzna walidacja krzyżowa 3.3.5. Leave one out 3.3.6. Bootstrap 3.3.7.Bagging 3.3.8. Losowe lasy 3.4. Zjawisko przetrenowania i niedotrenowania modelu 3.4.1. Problem przetrenowania i niedotrenowania 3.4.2. Przyczyny niedotrenowania i przetrenowania modeli 3.4.3. Wykorzystanie podzbiorów walidacyjnych 3.4.4. Ewaluacja stopnia wytrenowania modelu na podstawie metody T&T 3.4.5. Obciążenie modelu 3.4.6. Wariancja modelu 3.5. Regularyzacja 3.5.1. Regularyzacja grzbietowa 3.5.2. Regularyzacja lasso 3.5.3. Regularyzacja ElasticNet 4. Wprowadzenie do sztucznych sieci neuronowych 4.1. Perceptron - podstawowa jednostka sieci neuronowej 4.2. Sztuczna sieć neuronowa 4.3. Funkcja aktywacji 4.3.1. Idea funkcji aktywacji 4.3.2. Popularne funkcje aktywacji 4.4. Metody optymalizacyjne 4.4.1. Metoda gradientu prostego 4.4.2. Momentum 4.4.3. Przyspieszony spadek wzdłuż gradientu 4.4.4. RMSProp 4.4.5. Adaptive moment estimation (Adam) 4.5. Uczenie sztucznej sieci neuronowej 4.6. Metody projektowania sieci neuronowych do klasyfikacji i regresji 5. Problemy uczenia głębokiego 5.1. Niestabilne gradienty 5.1.1. Metody inicjalizacji wag sieci neuronowych 5.1.2. Dobór funkcji aktywacji 5.1.3. Normalizacja wsadowa 5.1.4. Obcinanie gradientu 5.2. Regularyzacja 5.2.1. Wczesne zatrzymywanie 5.2.2. Dropout 5.3. Regularyzacja metodą Monte Carlo 5.4. Regularyzacja metodą max-norm 5.5. Metody projektowania sieci neuronowych odpornych na problemy uczenia głębokiego 6. Implementacja sieci neuronowych z zastosowaniem biblioteki TensorFlow 6.1. Keras 6.1.1. Instalacja w środowisku języka Python 6.1.2. Weryfikacja poprawności instalacji oraz wersji biblioteki 6.1.3. Wbudowane warstwy modeli sieci neuronowych 6.1.4. Podstawowe metody i atrybuty warstw 6.2. Tworzenie modeli z zastosowaniem interfejsu Keras 6.2.1. Sequential API 6.2.2. Functional API 6.2.3. Subclassing API 6.3. Wizualizacja, trening, ocena wydajności i zapisywanie modelu 6.4. Studium przypadku - budowa modelu decyzyjnego diagnozującego schorzenia układu krążenia 7. Wdrażanie wytrenowanych modeli w chmurze publicznej 7.1. Chmura publiczna 7.2. Usługi bezserwerowe 7.3. Google Cloud Platform 7.4. Wdrażanie modeli za pomocą Google Cloud Platform 7.5. Wykonywanie predykcji za pomocą wdrożonego modelu
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153465 N (1 egz.)
Książka
W koszyku
Sztuczna inteligencja od podstaw / Feliks Kurp. - Gliwice : Helion, copyright 2023. - 192 strony : ilustracje, wykresy ; 21 cm.
Bibliografia, netografia na stronach [189]-192.
Dla studentów kierunków informatyka, mechatronika, automatyka i robotyka.
Silna i słaba sztuczna inteligencja Przegląd klasycznych metod sztucznej inteligencji 3.1. Metody heurystyczne i metaheurystyczne 3.2. Sztuczne sieci neuronowe 3.3. Uczenie maszynowe 3.4. Przetwarzanie języka naturalnego 3.5. Algorytmy genetyczne i ewolucyjne 3.6. Algorytmy mrówkowe i inteligencja roju 3.7. Sztuczne życie 3.8. Sztuczna inteligencja w procesach wydobywania wiedzy z danych 3.9. Metody hybrydowe 3.10. Metody na pograniczu sztucznej inteligencji 3.11. Co dalej ze sztuczną inteligencją? Algorytmy genetyczne i ewolucyjne 4.1. Idea algorytmów genetycznych i ewolucyjnych 4.2. Klasyczny algorytm genetyczny 4.3. Operatory genetyczne 4.4. Przykłady operacji krzyżowania i mutacji 4.5. Przykłady wykorzystania algorytmu genetycznego 4.5.1. Szukanie ekstremum funkcji jednej zmiennej 4.5.2. Rozwiązanie problemu plecakowego 4.6. Strategie ewolucyjne 4.7. Eksploracja i eksploatacja 4.8. Porównanie metod selekcji 4.9. Metody skalowania funkcji dostosowania 4.10. Specjalne procedury reprodukcji 4.11. Programowanie genetyczne 4.12. Poszukiwanie ekstremum funkcji wielu zmiennych z dużą dokładnością . Algorytm mrówkowy 5.1. Główne różnice w zachowaniu „sztucznych mrówek” w porównaniu z rzeczywistymi 5.2. Podstawowe parametry wejściowe algorytmu mrówkowego 5.3. Wpływ ilości pozostawionego feromonu w punktach grafu 5.4. Wpływ liczby mrówek biorących udział w eksperymencie 5.5. Wpływ liczby punktów do wyboru przez mrówki 5.6. Wpływ metody wyboru kolejnego punktu grafu przez mrówkę 5.7. Stopień nasycenia feromonem poszczególnych punktów grafu po zakończeniu symulacji Sztuczne sieci neuronowe 6.1. Sieci neuronowe biologiczne 6.2. Budowa i działanie sztucznego neuronu 6.3. Funkcje aktywacji 6.4. Perceptron 6.5. Model neuronu sigmoidalnego 6.6. Dlaczego sieci neuronowe? 6.7. Topologie sieci neuronowych 6.7.1. Sieci jednokierunkowe 6.7.2. Algorytm wstecznej propagacji błędów 6.7.3. Sieci rekurencyjne 6.7.4. Sieci komórkowe samoorganizujące się 6.7.5. Sieci samoorganizujące z konkurencją 6.7.6. Wykorzystanie sieci samoorganizujących Uczenie maszynowe 7.1. Modele uczenia maszynowego 7.1.1. Uczenie nadzorowane (z nauczycielem) 7.1.2. Uczenie nienadzorowane (bez nauczyciela) 7.1.3. Uczenie ze wzmocnieniem 7.2. Głębokie uczenie się 7.3. Zautomatyzowane uczenie maszynowe (AutoML). Sztuczne życie 8.1. Definicja sztucznego życia 8.2. Model Lotki-Volterry 8.3. Autorski model pełzacze i bakterie 8.4. Symulacja choroby i leczenia organizmu Metody wykorzystujące zbiory rozmyte typu 1. 9.1. Podstawowe pojęcia teorii zbiorów rozmytych typu 1. 9.2. Operacje na zbiorach rozmytych 9.3. Relacje rozmyte 9.4. Przykłady zastosowań teorii zbiorów rozmytych 9.4.1. Rozmyta metoda Delphi 9.4.2. Rozmyta metoda PERT 9.5. Podejmowanie decyzji w otoczeniu rozmytym 9.5.1. Przydział dywidendy 9.5.2. Polityka zatrudnienia 9.6. Przybliżone wnioskowanie 9.6.1. Wnioskowanie w logice dwuwartościowej 9.6.2. Wnioskowanie w logice rozmytej 9.7. Sterowanie rozmyte Systemy ekspertowe. Metody wnioskowania 10.1. Definicja systemu ekspertowego 10.2. Ogólna budowa systemu ekspertowego 10.3. Drzewa decyzyjne 10.4. Metodologia wnioskowania 10.4.1. Wnioskowanie dedukcyjne a indukcyjne 10.4.2. Wnioskowanie dedukcyjne (udowodnienie celu) . 10.4.3. Wnioskowanie indukcyjne (od danych do celu) 10.4.4. Wnioskowanie mieszane Inteligentna analiza danych 11.1. Eksploracja danych 11.2. Analityczne przetwarzanie danych 11.3. Klasyczne metody eksploracji danych 11.4. Inteligentne metody eksploracji danych 11.5. Podstawowe własności analizy skupień 11.6. Metoda k-średnich (k-means) 11.7. Przykładowa aplikacja analizy danych metodą k-means Metody hybrydowe i koewolucyjne 12.1. Metody hybrydowe 12.1.1. Algorytmy ewolucyjne w projektowaniu sieci neuronowych 12.1.2. Algorytmy ewolucyjne w uczeniu wag sieci neuronowych 12.1.3. Algorytmy ewolucyjne do uczenia wag i określania architektury sieci neuronowych jednocześnie 12.1.4. Adaptacyjne rozmyte algorytmy ewolucyjne 12.1.5. Algorytmy ewolucyjne w projektowaniu systemów rozmytych 12.1.6. Dopasowanie funkcji przynależności za pomocą algorytmu genetycznego 12.2. Algorytmy koewolucyjne Przetwarzanie języka naturalnego 13.1. Języki naturalne i formalne 13.2. Historia rozwoju NLP 13.3. Poziomy analizy języka naturalnego 13.4. Analiza składniowa (syntaktyczna) 13.4.1. Gramatyki generatywne Chomsky’ego 13.5. Analiza semantyczna (znaczeniowa) 13.5.1. Podejście strukturalne do opisu semantyki 13.5.2. Symetryczna macierz współwystępowania słów 13.5.3. Reprezentacja wektorowa słowa (metody Word2vec i Doc2vec) 13.5.4. Podobieństwo cosinusowe wektorów słów 13.5.5. Modelowanie językowe BERT 13.6. Model GPT-3 13.7. Analiza sentymentu
Sygnatura czytelni BWEAiI: XII Ą 153
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153774 N (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153775 N (1 egz.)
Książka
W koszyku
Indeks.
SZTUCZNA INTELIGENCJA: SFPRMUŁOWANIE RODEM Z SCIENCE FICTION, KTÓRE ZMIENIŁO ŚWIAT Czym jest sztuczna inteligencja? Silna sztuczna inteligencja Test Turinga Algorytm czy heurystyka? „Chcę zagrać w grę" Czy już to osiągnęliśmy? SIECI NEURONOWE - BURZA MÓZGÓW WEWNĄTRZ KOMPUTERA Wszystko jest liczbą Sekrety sztucznego mózgu Burza mózgów Warstwa i łgarstwa Sztuczne rozumowanie Głęboka myśl AlLGORYTMY GENETYCZNE: OD WYSP GALAPAGOS DO SYMFONII SKOMPONOWANEJ KOMPUTEROWO Ewolucja przyspieszona do milisekund Sztuczne DNA Narodziny życia Selekcja naturalna Krzyżowanie: nowe pokolenie buduje nowy świat X-meni są wśród nas Ewolucja rozwiązania Ewolucja w IT METODA MONTE CARLO: NIEOCZEKIWANE KORZYŚCI Z HAZARDU Ile wynosi π? PRZETWARZANE JĘZYKA: OD PLATONA DO SYSTEMÓW Eksperckich Składnia: zabawa klockami Od pojedynczych słów do czytania między wierszami Randkujące roboty PRZYSZŁOŚĆ ZE SZTUCZNĄ INTELIGENCJĄ Czarna skrzynka Zachować pracę jak najdłużej Anioły i demony Tabularasa
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153425 N (1 egz.)
Książka
W koszyku
Bibliografia, netografia na stronach 367-371. Indeks.
1.Pojęcia wstępne uczenia maszynowego 2.Modele regresji liniowej 2.1.Ogólny model regresji liniowej 2.2.Zastosowanie dekompozycji SVD w regresji liniowej 2.3.Implementacja regresji liniowej 3.Klasyfikatory KNN 4.Klasyfikatory probabilistyczne Bayesa 4.1.Pełny klasyfikator Bayesa 4.2.Naiwny klasyfikator Bayesa 4.3.Implementacja naiwnego klasyfikatora Bayesa w Matlabie 5.Drzewa decyzyjne 5.1.Struktura drzewa decyzyjnego 5.2.Algorytm tworzenia drzewa decyzyjnego 5.3.Implementacja modelu drzewa decyzyjnego 5.4.Las losowy drzew decyzyjnych 6.Sieć neuronowa MLP 6.1.Struktura sieci 6.2.Algorytmy uczące sieci MLP 6.3.1.Wyznaczanie gradintu metodą propagacji wstecznej 6.3.2.Algorytmy gradientowe uczenia sieci 6.3.3.Program komputerowy do uczenia sieci MLP w Matlabie 6.4.Przykłady użycia sieci MLP w aproksymacji danych 6.5.Praktyczne wskazówki doboru struktury sieci MLP 7.Sieć radialna RBF 7.1.Struktura sieci RBF 7.2.Algorytmy uczące sieci RBF 7.2.1.Zastosowanie algorytmu samoorganizacji i dekompozycji SVD 7.2.2.Algorytm OLS 7.3.Program komputerowy do uczenia sieci radialnej w Matlabie 7.4.Przykłady zastosowania sieci RBF 7.4.1.Aproksymacja funkcji nieliniowych 7.4.2.Problem 2 spiral 7.4.3.Sieć RBF w kalibracji sztucznego nosa 8.Sieć wektorów nośnych SVM 8.1.Sieć liniowa SVM w zadaniu klasyfikacji 8.2.Sieć nieliniowa SVM w zadaniu klasyfikacji 8.3.1.Interpretacja mnożników Lagrange'a w rozwiązaniu sieci 8.3.2.Problem klasyfikacji przy wielu klasach 8.4.Sieci SVM do zadań regresji 8.5.Przegląd algorytmów rozwiązania zadania dualnego 8.6.Program komputerowy uczenia sieci SVM w Matlabie 8.7.Przykłady implementacji uczenia sieci SVM 8.8.Porównanie sieci SVM z innymi rozwiązaniami neuronowymi 9.Sieci głębokie 9.1.Sieć konwolucyjna CNN 9.2.1.Struktura sieci CNN 9.2.2.Podstawowe operacje w sieci CNN 9.2.3.Uczenie sieci CNN 9.3.Transfer Learning 9.4.Przykład użycia sieci ALEXNET w trybie transfer learning 9.5.Inne rozwiązania pre-trenowanej architektury sieci CNN 9.6.Sieci CNN do detekcji obiektów w obrazie 9.6.1.SiećYOLO 9.6.2.Sieć R-CNN 9.6.3.Sieć U-NET w segmentacji obrazów biomedycznych 9.7.Autoenkoder 9.7.1.Struktura autoenkodera 9.7.2.Funkcja celu 9.7.3.Proces uczenia 9.7.4.Przykład zastosowania autoenkodera w kodowaniu danych 9.8.Podstawy działania autoenkodera wariacyjnego 9.9.Sieci generatywne GAN 9.10.Głębokie sieci rekurencyjne LSTM 9.10.1.Zasada działania sieci LSTM 9.11. Sieci transformerowe 9.11.1.Enkoder 9.11.2.Dekoder 9.11.3.Uczenie sieci 9.11.4.Inne zastosowania sieci transformerowych 10.Zagadnienia generalizacji i zespoły sieci 10.1.Pojęcie generalizacji 10.2.Miara VCdim i jej związek z generalizacją 10.3.Metody poprawy zdolności generalizacji sieci 10.4.Problem generalizacji w sieciach głębokich 10.5.Zespoły sieci do polepszenia zdolności generalizacji 10.5.1.Struktura zespołu i metody integracji 10.5.2.Warunki właściwego działania zespołu 10.6.Techniki tworzenia silnych rozwiązań na bazie słabych predyktorów 10.6.1.AdaBoost 10.6.2.Gradient boosting 11.Transformacje i metody redukcji wymiaru danych 11.1.Transformacja PCA 11.1.1.Istota przekształcenia PCA 11.1.2.Implementacja przekształcenia PCA w Matlabie 11.1.3.Zastosowanie PCA w kompresji 11.1.4.PCA w zastosowaniu do ilustracji rozkładu danych wielowymiarowych 11.2.Przekształcenie LDA Fishera 11.3.Ślepa separacja sygnałów 11.3.1.Sformułowanie problemu ślepej separacji 11.3.2.Algorytmy bazujące na statystykach drugiego rzędu 11.3.3.Metody bazujące na statystykach wyższego rzędu 11.3.4.Toolbox ICALAB w Matlabie 11.4.Rzutowanie Sammona 11.5.Transformacja tSNE 12.Metody grupowania danych wielowymiarowych 12.1.Miary odległości między wektorami 12.2.Miary odległości między klastrami 12.3.Algorytm K-means grupowania 12.4.Algorytm hierarchiczny grupowania 12.5.Algorytmy rozmyte grupowania 12.6.1.Algorytm grupowania górskiego 12.6.2.Algorytm c-means 12.7.Miary jakości grupowania danych 12.7.1.Miary jakości grupowania danych nieprzypisanych do klas 12.7.2.Miary jakości grupowania danych przypisanych do klas 13.Wybrane metody generacji i selekcji cech diagnostycznych 13.1.Metody generacji cech diagnostycznych 13.2.Metody selekcji cech diagnostycznych 13.3.1.Metoda dyskryminacyjna Fishera 13.3.2.Metoda korelacji danych z klasą 13.3.3.Zastosowanie jednowejściowej sieci SVM 13.3.4.Zastosowanie wielowejściowej liniowej sieci SVM 13.3.5.Selekcja cech bazująca na sekwencji eliminacji krokowej 13.3.6.Selekcja przy zastosowaniu algorytmu genetycznego 13.3.7.Zastosowanie testu statystycznego Kolmogorova-Smirnova 13.3.8.Zastosowanie testu Wilcoxona-Manna-Whitneya 13.3.9.Selekcja przy zastosowaniu transformacji PCA 13.3.10.Selekcja przy zastosowaniu transformacji LDA 13.3.11.Selekcja przy zastosowaniu lasu losowego 13.3.12.Selekcja cech przy użyciu algorytmu Refieff 13.3.13.Selekcja przy użyciu metody NCA 13.3.14.Metoda MRMR 14.Metody oceny jakości rozwiązań 14.1.Miary jakości regresji 14.2.Badanie jakości rozwiązań w zadaniach klasyfikacji 14.2.1.Miary jakości klasyfikatora 14.2.2.Charakterystyka ROC 14.3.Metody poprawy jakości klasyfikatora 14.3.1.Metoda różnicowania kosztu błędnej klasyfikacji 14.3.2.Metody równoważenia klas 14.3.3.Problemy klasyfikacji wieloklasowej 14.4.Obiektywna ocena zdolności generalizacyjnych systemu eksploracji 15.Adaptacyjne systemy rozmyte 15.1.Podstawy matematyczne systemów rozmytych 15.2.Systemy wnioskowania 15.3.Struktura systemu rozmytego TSK typu ANFIS 15.4.Algorytm uczenia sieci ANFIS 15.5.Zastosowanie algorytmu grupowania rozmytego c-means w tworzeniu reguł wnio¬skowania 15.6.Zmodyfikowana struktura sieci TSK
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
w opracowaniu: sygn. 155446 N, 155447 N (2 egz.)
Biblioteka WEAiI
w opracowaniu: sygn. 155377 N (1 egz.)
Brak okładki
Książka
W koszyku
Sieci neuronowe / Stanisław Osowski. - Wydanie II. - Warszawa : Oficyna Wydawnicza Politechniki Warszawskiej, 1996. - 241 stron : ilustracje ; 24 cm.
Bibliografia na stronach [238] - 241
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 96416 N (1 egz.)
Książka
W koszyku
Sztuczna inteligencja : nowe spojrzenie. T. 1 / Stuart Russell, Peter Norvig ; przekład: Andrzej Grażyński. - Gliwice : Helion, copyright 2023. - 742, [2] strony : ilustracje, wykresy ; 23 cm.
Wydanie 4. odnosi się do oryginału. Na stronie 4. okładki także nazwa wydawcy oryginału: Pearson.
Indeks.
1Sztuczna inteligencja 1.1.Czym jest sztuczna inteligencja? 1.2.Podstawy sztucznej inteligencji 1.3.Historia sztucznej inteligencji 1.4.Stan obecny 1.5.Spodziewane korzyści i ryzyko 2Inteligentni agenci 2.1.Agenci i ich środowiska 2.2.Właściwe zachowanie — koncepcja racjonalności 2.3.Natura środowiska 2.4.Struktura agenta II Rozwiązywanie problemów 3Rozwiązywanie problemów za pomocą wyszukiwania 3.1.Agent rozwiązujący problem 3.2.Przykładowe problemy 3.3.Algorytmy wyszukiwania 3.4.Strategie wyszukiwania niedoinformowanego 3.5.Strategie wyszukiwania poinformowanego (heurystycznego] 3.6.Funkcje heurystyczne 4Wyszukiwanie w złożonych środowiskach 4.1.Wyszukiwanie lokalne i problemy optymalizacyjne 4.2.Wyszukiwanie lokalne w przestrzeniach ciągłych 4.3.Wyszukiwanie z niedeterministycznymi akcjami 4.4.Wyszukiwanie w środowiskach częściowo obserwowalnych 4.5.Wyszukiwanie online i nieznane środowiska 5Wyszukiwanie antagonistyczne i gry 5.1.Teoria gier 5.2.Optymalne decyzje w grach 5.3.Heurystyczne wyszukiwanie alfa-beta 5.4.Wyszukiwanie Monte Carlo 5.5.Gry stochastyczne 5.6.Gry z częściową obserwowalnością 5.7.Ograniczenia algorytmów wyszukiwania w grach 6Problemy spełniania ograniczeń 6.1.Definiowanie problemów spełniania ograniczeń 6.2.Propagacja ograniczeń — wnioskowanie w CPS 6.3.Wyszukiwanie z nawrotami w CPS 6.4.Wyszukiwanie lokalne na usługach CSP 6.5.Struktura problemów CSP III Wiedza, wnioskowanie i planowanie 7Logiczni agenci 7.1.Agent bazujący na wiedzy 7.2.Świat Wumpusa 7.3.Podstawy logiki 7.4.Rachunek zdań — bardzo prosta logika 7.5.Dowodzenie twierdzeń w rachunku zdań 7.6.Efektywne sprawdzanie modeli w rachunku zdań 7.7.Agent na gruncie rachunku zdań 8Logika pierwszego rzędu 8.1.Ponownie o reprezentacji 8.2.Składnia i semantyka logiki pierwszego rzędu 8.3.Wykorzystywanie logiki pierwszego rzędu 8.4.Inżynieria wiedzy w logice pierwszego rzędu 9Wnioskowanie w logice pierwszego rzędu 9.1.Wnioskowanie w rachunku zdań a wnioskowanie w logice pierwszego rzędu 9.2.Unifikacja a wnioskowanie w logice pierwszego rzędu 9.3.Łańcuchowanie progresywne 9.4.Łańcuchowanie regresywne 9.5.Rezolucja 10Reprezentacja wiedzy 10.1.Inżynieria ontologii 10.2.Kategorie i obiekty 10.3.Zdarzenia 10.4.Obiekty mentalne i logika modalna 10.5.Systemy wnioskowania dla kategorii 10.6.Wnioskowanie na podstawie domniemań 11Automatyczne planowanie 11.1.Klasyczne planowanie — co to jest? 11.2.Algorytmy klasycznego planowania 11.3.Heurystyki w planowaniu 11.4.Planowanie hierarchiczne 11.5.Planowanie i działanie w domenach niedeterministycznych 11.6.Czas, harmonogramy i zasoby 11.7.Analiza podejść planistycznych IV Wnioskowanie w warunkach niepewności 12Kwantyfikowanie niepewności 12.1.Działając w warunkach niepewności 12.2.Notacja probabilistyczna 12.3.Wnioskowanie z pełnych wspólnych rozkładów 12.4.Niezależność 12.5.Reguła Bayesa i jej wykorzystywanie 12.6.Naiwne modele bayesowskie 12.7.Odwiedzamy świat Wumpusa 13Wnioskowanie probabilistyczne 13.1.Reprezentowanie wiedzy w niepewnej domenie 13.2.Semantyka sieci bayesowskich 13.3.Ścisłe wnioskowanie w sieciach bayesowskich 13.4.Aproksymowane wnioskowanie w sieciach bayesowskich 13.5.Sieci przyczynowe 14Probabilistyczne wnioskowanie w czasie 14.1.Czas a niepewność 14.2.Wnioskowanie w modelach temporalnych 14.3.Ukryte modele Markowa 14.4.Filtrowanie Kalmana 14.5.Dynamiczne sieci bayesowskie (DBN) 15Programowanie probabilistyczne 15.1.Relacyjne modele probabilistyczne 15.2.Modele probabilistyczne otwartego wszechświata 15.3.Śledzenie skomplikowanego świata 15.4.Programy jako modele probabilistyczne 16Podejmowanie prostych decyzji 16.1.Przekonania i pragnienia w warunkach niepewności 16.2.Podstawy teorii użyteczności 16.3.Funkcje użyteczności 16.4.Wieloatrybutowe funkcje użyteczności 16.5.Sieci decyzyjne 16.6.Wartość informacji 16.7.Nieznane preferencje 17Podejmowanie złożonych decyzji 17.1.Sekwencyjne problemy decyzyjne 17.2.Algorytmy dla problemów MDP 17.3.Problem bandyty i jego warianty 17.4.Częściowo obserwowalne problemy MDP (POMDP) 17.5.Algorytmy rozwiązywania problemów POMDP 18Podejmowanie decyzji w środowisku wieloagentowym 18.1.Właściwości środowisk wieloagentowych 18.2.Teoria gier niekooperatywnych 18.3.Teoria gier kooperatywnych 18.4.Kolektywne podejmowanie decyzji A Kompendium matematyczne A.l. Analiza złożoności i notacja „dużego O" A.2. Wektory, macierze i algebra liniowa A.3. Rozkłady prawdopodobieństwa A.4. Wybrane operacje na zbiorach B Konwencje notacyjne i pseudokod B.l. Definiowanie składni za pomocą notacji BNF B.2. Algorytmy w formie pseudokodu B.3. Uzupełniające materiały online
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153227 N (1 egz.)
Książka
W koszyku
Sztuczna inteligencja : nowe spojrzenie. T. 2 / Stuart Russell, Peter Norvig ; przekład: Andrzej Grażyński. - Gliwice : Helion, copyright 2023. - 467, [5] stron : fotografie, ilustracje, wykresy ; 23 cm.
Wydanie 4. odnosi się do oryginału. Na stronie 4. okładki także nazwa wydawcy oryginału: Pearson.
Bibliografia, netografia na stronach 417-457. Indeks.
Uczenie maszynowe Uczenie maszynowe z przykładowych danych 19.1.Formy uczenia maszynowego 19.2.Uczenie nadzorowane 19.3.Drzewa decyzyjne w uczeniu maszynowym 19.4.Selekcja modelu i optymalizacja 19.5.Teoria uczenia maszynowego 19.6.Regresja liniowa i klasyfikacja 19.7.Modele nieparametryczne 19.8.Uczenie zespołowe 19.9.Budowanie systemów uczenia maszynowego Uczenie modeli probabilistycznych 20.1.Uczenie statystyczne 20.2.Uczenie z kompletnych danych 20.3.Uczenie z ukrytymi zmiennymi: algorytm EM Głębokie uczenie 21.1.Proste sieci ze sprzężeniem w przód 21.2.Grafy obliczeniowe dla głębokiego uczenia 21.3.Konwolucyjne sieci neuronowe (CNN) 21.4.Algorytmy głębokiego uczenia 21.5.Generalizacja 21.6.Rekurencyjne sieci neuronowe (RNNj 21.7.Nienadzorowane uczenie transferowe 21.8.Zastosowania Uczenie ze wzmacnianiem 22.1.Uczenie się dla nagród 22.2.Pasywne uczenie ze wzmacnianiem 22.3.Aktywne uczenie ze wzmacnianiem 22.4.Generalizacja w uczeniu ze wzmacnianiem 22.5.Wyszukiwanie polityki 22.6.Uczenie praktykanckie i odwrotne uczenie ze wzmacnianiem 22.7.Zastosowania uczenia ze wzmacnianiem Komunikacja, percepcja i działanie Przetwarzanie języka naturalnego 23.1.Modele językowe 23.2.Gramatyka 23.3.Parsowanie 23.4.Gramatyki augmentowane 23.5.Komplikacje języków naturalnych 23.6.Zadania NLP Głębokie uczenie w przetwarzaniu języka naturalnego 24.1.Embeddingi słów 24.2.Rekurencyjne sieci neuronowe w NLP 24.3.Modele „sekwencja na sekwencję" 24.4.Architektura transformerów 24.5.Trenowanie wstępne i uczenie transferowe 24.6.Obecny stan sztuki Widzenie komputerowe 25.1.Formowanie obrazów 25.2.Podstawowe cechy obrazów 25.3.Klasyfikowanie obrazów 25.4.Wykrywanie obiektów 25.5.Rzeczywistość 3D 25.6.Widzenie komputerowe w praktyce Robotyka 26.1.Sprzęt robotów 26.2.Jakie rodzaje problemów rozwiązywać może robotyka? 26.3.Percepcja robotów 26.4.Planowanie i sterowanie 26.5.Planowanie ruchu w warunkach niepewności 26.6.Uczenie ze wzmacnianiem w robotyce 26.7.Ludzie i roboty 26.8.Alternatywne frameworki robotyczne 26.9.Domeny zastosowań robotyki Konkluzje 27Bezpieczeństwo oraz etyczne i filozoficzne aspekty sztucznej inteligencji 27.1.Granice sztucznej inteligencji 27.2.Czy maszyny mogą naprawdę myśleć? 27.3.Sztuczna inteligencja a etyka 28Przyszłość sztucznej inteligencji 28.1.Komponenty sztucznej inteligencji 28.2.Architektury sztucznej inteligencji
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 153226 N (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 100651, 100650 N, 94810 L (3 egz.)
Brak okładki
Książka
W koszyku
Bibliografia, netografia, wykaz norm na stronach 121-126.
1. Produkcja elektrod otulonych 2. Właściwości spawalnicze elektrod otulonych oraz stabilność procesu spawania 3. Wybrane zagadnienia z zakresu fizyki łuku spawalniczego 3.1. Siły działające na kroplę metalu w łuku spawalniczym 3.2. Charakterystyka statyczna łuku i warunki stabilności procesu spawania 4. Wybrane aspekty metalurgii spawania elektrodą otuloną 5. Urządzenia spawalnicze – charakterystyka 5.1. Charakterystyczne parametry zasilaczy spawalniczych 5.2. Rodzaje urządzeń do spawania elektrodą otuloną 6. Wykorzystanie sygnałów napięciowo-prądowych w ocenie stabilności procesu spawania elektrodą otuloną 7. Stanowisko badawcze i warunki prowadzenia badań 8.1. Ocena wizualna napoin testowych 8.2. Analiza przebiegów czasowych wartości chwilowych napięcia łuku spawalniczego i natężenia prądu spawania 8.3. Ocena przydatności poszczególnych wskaźników statystycznych za pomocą regresji liniowej 9. Analiza częstotliwościowa z wykorzystaniem transformaty Fouriera 10. Wykorzystanie metod sztucznej inteligencji do klasyfikacji stanu jakościowego elektrod otulonych 10.1. Sztuczne sieci neuronowe 10.2. Klasyfikacja jakości elektrod z zastosowaniem sztucznej inteligencji
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Magazyn
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153298 E N (1 egz.)
Brak okładki
Książka
W koszyku
(Monografia / Politechnika Śląska ; 190)
Bibliografia strony [278]-296.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 122237 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności