Sawka Krzysztof
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(28)
Forma i typ
Książki
(27)
Publikacje fachowe
(19)
Publikacje dydaktyczne
(5)
Poradniki i przewodniki
(1)
Publikacje naukowe
(1)
Publikacje popularnonaukowe
(1)
Dostępność
tylko na miejscu
(25)
dostępne
(4)
wypożyczone
(1)
nieokreślona
(1)
Placówka
Wypożyczalnia
(4)
Biblioteka Międzywydziałowa
(2)
Biblioteka WEAiI
(25)
Autor
Berłowski Paweł
(189)
Kotowski Włodzimierz
(179)
Praca zbiorowa
(157)
Skoczylas Zbigniew
(152)
Stiasny Grzegorz
(143)
Sawka Krzysztof
(-)
Sadlik Ryszard
(142)
Blum Maciej
(140)
Michalski Dariusz
(134)
Lewandowski Maciej
(131)
Majewski Jerzy S
(131)
Etzold Hans-Rüdiger
(120)
Leśniewski Mariusz
(116)
Gewert Marian
(108)
Maruchin Wojciech
(107)
Guryn Halina
(105)
Traczyk Wojciech
(101)
Chalastra Michał
(99)
Kardyś Marta
(97)
Marx Karl (1818-1883)
(94)
Nazwisko Imię
(94)
Berkieta Mateusz
(93)
Tomczak Małgorzata
(93)
Polkowski Sławomir
(92)
Engels Friedrich (1820-1895)
(91)
Jakubiec Izabela
(90)
Kotapski Roman
(90)
Rybicki Piotr
(90)
Krysicki Włodzimierz (1905-2001)
(88)
Teleguj Kazimierz
(88)
Kapołka Maciej
(86)
Mikołajewska Emilia
(84)
Zaborowska Joanna
(81)
Starosolski Włodzimierz (1933- )
(80)
Piątek Grzegorz
(79)
Rudnicki Bogdan
(79)
Górczyński Robert
(78)
Meryk Radosław
(78)
Polit Ryszard
(77)
Mroczek Wojciech
(76)
Kulawik Marta
(74)
Mycielski Krzysztof
(74)
Myszkorowski Jakub
(73)
Konopka Eduard
(71)
Jabłoński Marek
(70)
Bielecki Jan (1942-2001)
(69)
Knosala Ryszard (1949- )
(68)
Rajca Piotr (1970- )
(68)
Rymarz Małgorzata
(68)
Walczak Krzysztof
(68)
Walkiewicz Łukasz
(68)
Wiecheć Marek
(68)
Jabłoński Adam
(67)
Laszczak Mirosław
(66)
Piwko Łukasz
(66)
Wodziczko Piotr
(65)
Dziedzic Zbigniew
(64)
Sidor-Rządkowska Małgorzata
(64)
Żakowski Wojciech (1929-1993)
(64)
Pasko Marian
(62)
Włodarski Lech (1916-1997)
(62)
Czakon Wojciech
(61)
Leyko Jerzy (1918-1995)
(61)
Jankowski Mariusz
(60)
Kostecka Alicja
(60)
Lenin Włodzimierz (1870-1924)
(60)
Paszkowska Małgorzata
(60)
Wróblewski Piotr
(60)
Karpińska Marta
(59)
Próchnicki Wojciech
(59)
Rogala Elżbieta
(59)
Bielecki Maciej
(57)
Jelonek Jakub
(57)
Malkowski Tomasz
(57)
Pilch Piotr
(57)
Rauziński Robert (1933- )
(57)
Gawrońska Joanna
(56)
Ajdukiewicz Andrzej (1939- )
(55)
Cieślak Piotr
(55)
Draniewicz Bartosz
(55)
Godek Piotr
(55)
Osiński Zbigniew (1926-2001)
(55)
Jasiński Filip
(54)
Klupiński Kamil
(54)
Kuliński Włodzisław
(54)
Suchodolski Bogdan (1903-1992)
(54)
Forowicz Krystyna
(53)
Szkutnik Leon Leszek
(52)
Zdanikowski Paweł
(52)
Wantuch-Matla Dorota
(51)
Barowicz Marek
(50)
Trammer Hubert
(50)
Walczak Tomasz
(50)
Watrak Andrzej
(50)
Zgółkowa Halina (1947- )
(50)
Barańska Katarzyna
(49)
Czajkowska-Matosiuk Katarzyna
(49)
Jurlewicz Teresa
(49)
Pikoń Andrzej
(49)
Szargut Jan (1923- )
(49)
Chojnacki Ireneusz
(48)
Rok wydania
2020 - 2024
(12)
2010 - 2019
(15)
2000 - 2009
(1)
Okres powstania dzieła
2001-
(20)
1989-2000
(1)
Kraj wydania
Polska
(28)
Język
polski
(28)
Odbiorca
Programiści
(3)
Analitycy danych
(1)
Architekci oprogramowania
(1)
Informatycy
(1)
Szkoły wyższe
(1)
Szkoły średnie
(1)
Temat
Uczenie maszynowe
(6)
Języki programowania
(4)
Programowanie (informatyka)
(4)
Python (język programowania)
(4)
Sieci neuronowe (informatyka)
(4)
Android (system operacyjny)
(3)
Systemy operacyjne mobilne
(3)
Deep learning
(2)
Kody
(2)
Linux (system operacyjny)
(2)
Microsoft Windows Server (system operacyjny)
(2)
Rust (język programowania)
(2)
Sztuczna inteligencja
(2)
Sztuczna sieć neuronowa
(2)
Algorytmy
(1)
Analiza danych
(1)
Aparatura i przyrządy naukowe
(1)
Architektura oprogramowania
(1)
Automatyka
(1)
Badania operacyjne
(1)
Baza danych
(1)
Biblioteka (informatyka)
(1)
Data Mining (metoda)
(1)
Data science
(1)
Inteligencja sztuczna
(1)
Keras (biblioteka programistyczna)
(1)
Komputery
(1)
Nauka
(1)
Podręcznik
(1)
Power BI
(1)
Programowanie
(1)
Programowanie ewolucyjne
(1)
Programowanie zwinne
(1)
Programy komputerowe
(1)
Projektowanie wspomagane komputerowo
(1)
Przywództwo
(1)
R (język programowania)
(1)
Roboty i manipulatory
(1)
Sieci neuronowe
(1)
Sieci neuronowe (komputerowe)
(1)
Systemy operacyjne
(1)
Szczupłe zarządzanie
(1)
TensorFlow (biblioteka programistyczna)
(1)
Układ cyfrowy
(1)
Zarządzanie produktem
(1)
Zarządzanie projektami
(1)
Temat: czas
2001-
(2)
Gatunek
Podręcznik
(16)
Opracowanie
(5)
Poradnik
(4)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(19)
Zarządzanie i marketing
(2)
Fizyka i astronomia
(1)
Inżynieria i technika
(1)
Matematyka
(1)
28 wyników Filtruj
Książka
W koszyku
Wydanie II - dotyczy oryginału.
Na okładce także nazwa wydawcy oryginału: O'Reilly.
Mechanika Ewoluowanie architektury oprogramowania Architektura ewolucyjna Zmiana kierowana przyrostowa Wielowymiarowość architektury W jaki sposób możemy po stworzeniu architektury zabezpieczyć ją przed degradacją2. Funkcje dopasowania Kategorie Zakres: atomowe/holistyczne Miarowość: wywoływane/ciągłe/czasowe Rezultat: statyczne/dynamiczne Wywołanie: zautomatyzowane/ręczne Proaktywność: zamierzone/wyłaniające się Pokrycie: funkcje dopasowania specyficzne dla domeny? Kto pisze funkcje dopasowania? Gdzie znajduje się platforma testowania moich funkcji dopasowania? Rezultaty a implementacje Zmiana przyrostowa Potoki wdrażania : dodawanie funkcji dopasowania do usługi fakturowania w firmie Kapitalne Patenty : sprawdzanie spójności API w automatycznych kompilacjach Automatyzacja zarządzania architekturą Funkcje dopasowania w zarządzaniu architekturą Funkcje dopasowania na poziomie kodu Sprzężenie aferentne i eferentne Abstrakcyjność, niestabilność i odległość od głównej sekwencji Kierunkowość importowanych elementów Złożoność cyklomatyczna i zarządzanie przez kierowanie zespołami Kompletne narzędzia Legalność otwartych bibliotek A11y i inne obsługiwane parametry architektury ArchUnit Lintery do zarządzania kodem : funkcja dopasowania dostępności testowanie obciążenia wraz z wydaniami kanarkowymi Funkcje dopasowania, z których już korzystasz Architektura integracji Zarządzanie komunikacją w mikrousługach DevOps Architektura korporacyjna: restrukturyzacja architektury podczas 60 wdrożeń dziennie Funkcje dopasowania wierności Dokumentowanie funkcji dopasowania Splątanie Skrzyżowanie splątania z ograniczonym kontekstem Kwanty architektury i ziarnistość Wysoce funkcjonalna spójność Znaczne sprzężenie statyczne Sprzężenie dynamiczne kwantu Kontrakty : mikrousługi jako architektura ewolucyjna Wzorce wieloużywalności kodu Skuteczna wieloużywalność = abstrakcja + mała ulotność Przyczepy i siatka usług: ortogonalne sprzężenie operacyjne Siatka danych: sprzężenie ortogonalne danych. Dane ewolucyjne Projektowanie ewolucyjnej bazy danych Ewoluowanie schematów Integracja współdzielonych baz danych Nieprawidłowe nakładanie się danych Zatwierdzanie dwufazowe transakcji Wiek i jakość danych : ewolucja trasowania w firmie Kapitalne Patenty Od funkcji natywnej do funkcji dopasowania
Zgodność powiązań Duplikacja danych Zastępowanie wyzwalaczy i przechowywanych procedur Analiza przypadku: ewoluowanie od architektury relacyjnej do nierelacyjnej Tworzenie ewoluowalnych architektur Zasady architektury ewolucyjnej Projektuj i twórz z myślą o ewoluowalności Prawo Postela Projektuj z myślą o testowalności Prawo Conwaya Mechanika Identyfikacja wymiarów podlegających ewolucji Definiowanie funkcji dopasowania dla każdego wymiaru Stosowanie potoku wdrażania do automatyzacji funkcji dopasowania Modernizowanie istniejących architektur Prawidłowe sprzężenie i spójność Skutki stosowania modelu COTS Migrowanie architektur Etapy migracji Ewoluowanie oddziaływań pomiędzy modułami Wskazówki dotyczące tworzenia architektur ewolucyjnych Usuń niepotrzebną zmienność Zagwarantuj odwracalność decyzji Przedkładaj ewoluowalność nad przewidywalność Twórz warstwy przeciwdegradacyjne Tworzenie architektur ofiarniczych Minimalizuj wpływ zmian zewnętrznych Aktualizowanie bibliotek i szkieletów Wersjonuj usługi wewnętrznie ewoluowanie systemu oceniania w firmie Kapitalne Patenty Architektura sterowana funkcjami dopasowania Pułapki i antywzorce architektury ewolucyjnej Architektura techniczna Antywzorzec: pułapka ostatnich 10% i mało kodu/ brak kodu : wieloużywalność w firmie Kapitalne Patenty Antywzorzec: monopolista Pułapka: nieszczelne abstrakcje Pułapka: projektowanie zorientowane na CV Zmiany przyrostowe Antywzór: nieprawidłowe zarządzanie : zarządzanie „na styk” w firmie Kapitalne Patenty Pułapka: brak szybkości wydawania Kwestie biznesowe Pułapka: dostosowywanie produktu Antywzorzec: raportowanie na wierzchu systemu rekordów Pułapka: nadmiernie długie horyzonty planowania Stosowanie architektury ewolucyjnej w praktyce Czynniki organizacyjne Nie walcz z prawem Conwaya Parametry sprzężenia zespołów Kultura Kultura eksperymentowania Dyrektor finansowy i przygotowywanie budżetu Kwestia biznesowa Projektowanie zorientowane na hipotezy i dane Funkcje dopasowania jako media eksperymentalne Tworzenie korporacyjnych funkcji dopasowania : podatność zabezpieczeń na ataki dnia zerowego Wyznaczanie ograniczonych kontekstów w istniejącej architekturze integracji Testowanie Infrastruktura : architektura korporacyjna w firmie Kapitalne Patenty Funkcje dopasowania wykorzystujące sztuczną inteligencję Testowanie generatywne
Sygnatura czytelni BWEAiI: XII A 102
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154650 N (1 egz.)
Książka
W koszyku
Bibliografia na stronach 217-223. Indeks.
CZĘŚĆ I. NASZE ODKRYCIA 1. Przyspieszenie 27 2. Mierzenie wydajności 35 3. Mierzenie i zmienianie kultury 49 4. Praktyki techniczne 59 5. Architektura 73 6. Integracja bezpieczeństwa informacji z cyklem życia dostarczania oprogramowania 81 7. Praktyki zarządcze 85 8. Wytwarzanie produktu 91 9. Podtrzymywanie zapału do pracy 97 10. Satysfakcja, tożsamość i zaangażowanie pracownika 107 11. Liderzy i menedżerowie 119 CZĘŚĆ II. BADANIA 12. Podstawy naukowe badań opisanych w książce 131 13. Wprowadzenie do psychometrii 141 14. Dlaczego ankieta? 151 15. Dane wykorzystane w projekcie 161 CZĘŚĆ III. TRANSFORMACJA 16. Wysokowydajne przywództwo i zarządzanie 169 A. Zdolności napędzające usprawnienia 189 B. Statystyki 197 C. Metody statystyczne użyte w naszych badaniach 207
Sygnatura czytelni BMW: VI Ę 100 (nowy)
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149918 N (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłumaczenie: Krzysztof Sawka. - Wydanie II, aktualizacja do modułu TensorFlow 2. - Gliwice : Helion, copyright 2020. - 764, [4] strony : ilustracje ; 25 cm.
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO 25 1. Krajobraz uczenia maszynowego 27 Czym jest uczenie maszynowe? 28 Dlaczego warto korzystać z uczenia maszynowego? 28 Przykładowe zastosowania 31 Rodzaje systemów uczenia maszynowego 33 Uczenie nadzorowane i uczenie nienadzorowane 34 Uczenie wsadowe i uczenie przyrostowe 40 Uczenie z przykładów i uczenie z modelu 43 Główne problemy uczenia maszynowego 48 Niedobór danych uczących 50 Niereprezentatywne dane uczące 50 Dane kiepskiej jakości 51 Nieistotne cechy 52 Przetrenowanie danych uczących 52 Niedotrenowanie danych uczących 54 Testowanie i ocenianie 55 Strojenie hiperparametrów i dobór modelu 55 Niezgodność danych 56 2. Nasz pierwszy projekt uczenia maszynowego 59 Praca z rzeczywistymi danymi 59 Przeanalizuj całokształt projektu 61 Określ zakres problemu 61 Wybierz metrykę wydajności 63 Sprawdź założenia 65 Zdobądź dane 65 Stwórz przestrzeń roboczą 66 Pobierz dane 68 Rzut oka na strukturę danych 70 Stwórz zbiór testowy 74 Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje 78 Wizualizowanie danych geograficznych 78 Poszukiwanie korelacji 80 Eksperymentowanie z kombinacjami atrybutów 83 Przygotuj dane pod algorytmy uczenia maszynowego 84 Oczyszczanie danych 84 Obsługa tekstu i atrybutów kategorialnych 87 Niestandardowe transformatory 89 Skalowanie cech 90 Potoki transformujące 90 Wybór i uczenie modelu 92 Trenowanie i ocena modelu za pomocą zbioru uczącego 92 Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego 93 Wyreguluj swój model 96 Metoda przeszukiwania siatki 96 Metoda losowego przeszukiwania 98 Metody zespołowe 98 Analizuj najlepsze modele i ich błędy 98 Oceń system za pomocą zbioru testowego 99 Uruchom, monitoruj i utrzymuj swój system 100 Teraz Twoja kolej! 103 3. Klasyfikacja 105 Zbiór danych MNIST 105 Uczenie klasyfikatora binarnego 107 Miary wydajności 108 Pomiar dokładności za pomocą sprawdzianu krzyżowego 108 Macierz pomyłek 110 Precyzja i pełność 111 Kompromis pomiędzy precyzją a pełnością 112 Wykres krzywej ROC 116 Klasyfikacja wieloklasowa 119 Analiza błędów 121 Klasyfikacja wieloetykietowa 124 Klasyfikacja wielowyjściowa 125 4. Uczenie modeli 129 Regresja liniowa 130 Równanie normalne 131 Złożoność obliczeniowa 134 Gradient prosty 135 Wsadowy gradient prosty 138 Stochastyczny spadek wzdłuż gradientu 141 Schodzenie po gradiencie z minigrupami 143 Regresja wielomianowa 145 Krzywe uczenia 146 Regularyzowane modele liniowe 150 Regresja grzbietowa 150 Regresja metodą LASSO 153 Metoda elastycznej siatki 155 Wczesne zatrzymywanie 156 Regresja logistyczna 157 Szacowanie prawdopodobieństwa 158 Funkcje ucząca i kosztu 159 Granice decyzyjne 160 Regresja softmax 162 5. Maszyny wektorów nośnych 167 Liniowa klasyfikacja SVM 167 Klasyfikacja miękkiego marginesu 168 Nieliniowa klasyfikacja SVM 170 Jądro wielomianowe 171 Cechy podobieństwa 172 Gaussowskie jądro RBF 173 Złożoność obliczeniowa 175 Regresja SVM 175 Mechanizm działania 177 Funkcja decyzyjna i prognozy 177 Cel uczenia 178 Programowanie kwadratowe 180 Problem dualny 181 Kernelizowane maszyny SVM 182 Przyrostowe maszyny SVM 185 6. Drzewa decyzyjne 187 Uczenie i wizualizowanie drzewa decyzyjnego 187 Wyliczanie prognoz 188 Szacowanie prawdopodobieństw przynależności do klas 190 Algorytm uczący CART 191 Złożoność obliczeniowa 192 Wskaźnik Giniego czy entropia? 192 Hiperparametry regularyzacyjne 193 Regresja 194 Niestabilność 196 7. Uczenie zespołowe i losowe lasy 199 Klasyfikatory głosujące 199 Agregacja i wklejanie 202 Agregacja i wklejanie w module Scikit-Learn 203 Ocena OOB 205 Rejony losowe i podprzestrzenie losowe 206 Losowe lasy 206 Zespół Extra-Trees 207 Istotność cech 207 Wzmacnianie 209 AdaBoost 209 Wzmacnianie gradientowe 212 Kontaminacja 217 8. Redukcja wymiarowości 223 Klątwa wymiarowości 224 Główne strategie redukcji wymiarowości 225 Rzutowanie 225 Uczenie rozmaitościowe 227 Analiza PCA 228 Zachowanie wariancji 229 Główne składowe 230 Rzutowanie na d wymiarów 231 Implementacja w module Scikit-Learn 232 Współczynnik wariancji wyjaśnionej 232 Wybór właściwej liczby wymiarów 232 Algorytm PCA w zastosowaniach kompresji 233 Losowa analiza PCA 234 Przyrostowa analiza PCA 235 Jądrowa analiza PCA 236 Wybór jądra i strojenie hiperparametrów 236 Algorytm LLE 239 Inne techniki redukowania wymiarowości 241 9. Techniki uczenia nienadzorowanego 243 Analiza skupień 244 Algorytm centroidów 246 Granice algorytmu centroidów 255 Analiza skupień w segmentacji obrazu 256 Analiza skupień w przetwarzaniu wstępnym 257 Analiza skupień w uczeniu półnadzorowanym 259 Algorytm DBSCAN 262 Inne algorytmy analizy skupień 265 Mieszaniny gaussowskie 266 Wykrywanie anomalii za pomocą mieszanin gaussowskich 271 Wyznaczanie liczby skupień 273 Modele bayesowskie mieszanin gaussowskich 275 Inne algorytmy służące do wykrywania anomalii i nowości 279 CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE 283 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras 285 Od biologicznych do sztucznych neuronów 286 Neurony biologiczne 287 Operacje logiczne przy użyciu neuronów 288 Perceptron 289 Perceptron wielowarstwowy i propagacja wsteczna 293 Regresyjne perceptrony wielowarstwowe 297 Klasyfikacyjne perceptrony wielowarstwowe 298 Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras 300 Instalacja modułu TensorFlow 2 301 Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego 302 Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego 311 Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego 312 Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego 316 Zapisywanie i odczytywanie modelu 318 Stosowanie wywołań zwrotnych 318 Wizualizacja danych za pomocą narzędzia TensorBoard 320 Dostrajanie hiperparametrów sieci neuronowej 323 Liczba warstw ukrytych 326 Liczba neuronów w poszczególnych warstwach ukrytych 327 Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry 328 11. Uczenie głębokich sieci neuronowych 333 Problemy zanikających/eksplodujących gradientów 334 Inicjalizacje wag Glorota i He 334 Nienasycające funkcje aktywacji 336 Normalizacja wsadowa 340 Obcinanie gradientu 346 Wielokrotne stosowanie gotowych warstw 347 Uczenie transferowe w interfejsie Keras 348 Nienadzorowane uczenie wstępne 350 Uczenie wstępne za pomocą dodatkowego zadania 350 Szybsze optymalizatory 352 Optymalizacja momentum 352 Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) 353 AdaGrad 355 RMSProp 356 Optymalizatory Adam i Nadam 357 Harmonogramowanie współczynnika uczenia 359 Regularyzacja jako sposób zapobiegania przetrenowaniu 364 Regularyzacja l1 i l2 364 Porzucanie 365 Regularyzacja typu Monte Carlo (MC) 368 Regularyzacja typu max-norm 370 Podsumowanie i praktyczne wskazówki 371 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow 375 Krótkie omówienie modułu TensorFlow 375 Korzystanie z modułu TensorFlow jak z biblioteki NumPy 379 Tensory i operacje 379 Tensory a biblioteka NumPy 381 Konwersje typów 381 Zmienne 381 Inne struktury danych 382 Dostosowywanie modeli i algorytmów uczenia 383 Niestandardowe funkcje straty 383 Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe 384 Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia 386 Niestandardowe wskaźniki 387 Niestandardowe warstwy 389 Niestandardowe modele 392 Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu 394 Obliczanie gradientów za pomocą różniczkowania automatycznego 396 Niestandardowe pętle uczenia 399 Funkcje i grafy modułu TensorFlow 402 AutoGraph i kreślenie 404 Reguły związane z funkcją TF 405 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow 409 Interfejs danych 410 Łączenie przekształceń 410 Tasowanie danych 412 Wstępne przetwarzanie danych 415 Składanie wszystkiego w całość 416 Pobieranie wstępne 417 Stosowanie zestawu danych z interfejsem tf.keras 418 Format TFRecord 419 Skompresowane pliki TFRecord 420 Wprowadzenie do buforów protokołów 420 Bufory protokołów w module TensorFlow 422 Wczytywanie i analizowanie składni obiektów Example 423 Obsługa list list za pomocą bufora protokołów SequenceExample 424 Wstępne przetwarzanie cech wejściowych 425 Kodowanie cech kategorialnych za pomocą wektorów gorącojedynkowych 426 Kodowanie cech kategorialnych za pomocą wektorów właściwościowych 428 Warstwy przetwarzania wstępnego w interfejsie Keras 431 TF Transform 433 Projekt TensorFlow Datasets (TFDS) 435 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych 439 Struktura kory wzrokowej 440 Warstwy splotowe 441 Filtry 443 Stosy map cech 444 Implementacja w module TensorFlow 446 Zużycie pamięci operacyjnej 448 Warstwa łącząca 449 Implementacja w module TensorFlow 451 Architektury splotowych sieci neuronowych 452 LeNet-5 454 AlexNet 455 GoogLeNet 458 VGGNet 461 ResNet 461 Xception 465 SENet 466 Implementacja sieci ResNet-34 za pomocą interfejsu Keras 468 Korzystanie z gotowych modeli w interfejsie Keras 469 Gotowe modele w uczeniu transferowym 471 Klasyfikowanie i lokalizowanie 473 Wykrywanie obiektów 474 W pełni połączone sieci splotowe 476 Sieć YOLO 478 Segmentacja semantyczna 481 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych 487 Neurony i warstwy rekurencyjne 488 Komórki pamięci 490 Sekwencje wejść i wyjść 491 Uczenie sieci rekurencyjnych 492 Prognozowanie szeregów czasowych 493 Wskaźniki bazowe 494 Implementacja prostej sieci rekurencyjnej 494 Głębokie sieci rekurencyjne 496 Prognozowanie kilka taktów w przód 497 Obsługa długich sekwencji 500 Zwalczanie problemu niestabilnych gradientów 501 Zwalczanie problemu pamięci krótkotrwałej 503 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi 513 Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej 514 Tworzenie zestawu danych uczących 515 Rozdzielanie zestawu danych sekwencyjnych 515 Dzielenie zestawu danych sekwencyjnych na wiele ramek 516 Budowanie i uczenie modelu Char-RNN 518 Korzystanie z modelu Char-RNN 519 Generowanie sztucznego tekstu szekspirowskiego 519 Stanowe sieci rekurencyjne 520 Analiza sentymentów 522 Maskowanie 526 Korzystanie z gotowych reprezentacji właściwościowych 527 Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego 529 Dwukierunkowe warstwy rekurencyjne 532 Przeszukiwanie wiązkowe 533 Mechanizmy uwagi 534 Mechanizm uwagi wizualnej 537 Liczy się tylko uwaga, czyli architektura transformatora 539 Współczesne innowacje w modelach językowych 546 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych 551 Efektywne reprezentacje danych 552 Analiza PCA za pomocą niedopełnionego autokodera liniowego 554 Autokodery stosowe 555 Implementacja autokodera stosowego za pomocą interfejsu Keras 556 Wizualizowanie rekonstrukcji 557 Wizualizowanie zestawu danych Fashion MNIST 558 Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych 558 Wiązanie wag 560 Uczenie autokoderów pojedynczo 561 Autokodery splotowe 562 Autokodery rekurencyjne 563 Autokodery odszumiające 564 Autokodery rzadkie 566 Autokodery wariacyjne 569 Generowanie obrazów Fashion MNIST 572 Generatywne sieci przeciwstawne 574 Problemy związane z uczeniem sieci GAN 577 Głębokie splotowe sieci GAN 579 Rozrost progresywny sieci GAN 582 Sieci StyleGAN 585 18. Uczenie przez wzmacnianie 589 Uczenie się optymalizowania nagród 590 Wyszukiwanie strategii 591 Wprowadzenie do narzędzia OpenAI Gym 593 Sieci neuronowe jako strategie 597 Ocenianie czynności: problem przypisania zasługi 598 Gradienty strategii 600 Procesy decyzyjne Markowa 604 Uczenie metodą różnic czasowych 607 Q-uczenie 609 Strategie poszukiwania 610 Przybliżający algorytm Q-uczenia i Q-uczenie głębokie 611 Implementacja modelu Q-uczenia głębokiego 612 Odmiany Q-uczenia głębokiego 616 Ustalone Q-wartości docelowe 616 Podwójna sieć DQN 617 Odtwarzanie priorytetowych doświadczeń 618 Walcząca sieć DQN 618 Biblioteka TF-Agents 619 Instalacja biblioteki TF-Agents 620 Środowiska TF-Agents 620 Specyfikacja środowiska 621 Funkcje opakowujące środowisko i wstępne przetwarzanie środowiska Atari 622 Architektura ucząca 625 Tworzenie Q-sieci głębokiej 627 Tworzenie agenta DQN 629 Tworzenie bufora odtwarzania i związanego z nim obserwatora 630 Tworzenie wskaźników procesu uczenia 631 Tworzenie sterownika 632 Tworzenie zestawu danych 633 Tworzenie pętli uczenia 636 Przegląd popularnych algorytmów RN 637 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow 641 Eksploatacja modelu TensorFlow 642 Korzystanie z systemu TensorFlow Serving 642 Tworzenie usługi predykcyjnej na platformie GCP AI 650 Korzystanie z usługi prognozowania 655 Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym 658 Przyspieszanie obliczeń za pomocą procesorów graficznych 661 Zakup własnej karty graficznej 662 Korzystanie z maszyny wirtualnej wyposażonej w procesor graficzny 664 Colaboratory 665 Zarządzanie pamięcią operacyjną karty graficznej 666 Umieszczanie operacji i zmiennych na urządzeniach 669 Przetwarzanie równoległe na wielu urządzeniach 671 Uczenie modeli za pomocą wielu urządzeń 673 Zrównoleglanie modelu 673 Zrównoleglanie danych 675 Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania 680 Uczenie modelu za pomocą klastra TensorFlow 681 Realizowanie dużych grup zadań uczenia za pomocą usługi Google Cloud AI Platform 684 Penetracyjne strojenie hiperparametrów w usłudze AI Platform 686 A. Rozwiązania ćwiczeń 691 B. Lista kontrolna projektu uczenia maszynowego 725 C. Problem dualny w maszynach wektorów nośnych 731 D. Różniczkowanie automatyczne 735 E. Inne popularne architektury sieci neuronowych 743 F. Specjalne struktury danych 751 G. Grafy TensorFlow 757
Sygnatura czytelni BWEAiI: XII Ł 177
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Wszystkie egzemplarze są obecnie wypożyczone: sygn. 149873 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Indeks.
Fenomen uczenia maszynowego Uczenie maszynowe w Twoich projektach Cel i sposób jego osiągnięcia Wymogi wstępne Zawartość książki Dodatkowe zasoby Konwencje stosowane w książce Korzystanie z kodu źródłowego Część I Podstawy uczenia maszynowego Rozdział 1. Krajobraz uczenia maszynowego Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Rodzaje systemów uczenia maszynowego Uczenie nadzorowane/nienadzorowane Uczenie nadzorowane Uczenie nienadzorowane Uczenie półnadzorowane Uczenie przez wzmacnianie Uczenie wsadowe/przyrostowe Uczenie wsadowe Uczenie przyrostowe Uczenie z przykładów/z modelu Uczenie z przykładów Uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz metrykę wydajności Sprawdź założenia Zdobądź dane Stwórz przestrzeń roboczą Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Wizualizowanie danych geograficznych Poszukiwanie korelacji Eksperymentowanie z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyszczanie danych Obsługa tekstu i atrybutów kategorialnych Niestandardowe transformatory Skalowanie cech Potoki transformujące Wybór i uczenie modelu Trenowanie i ocena modelu za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizuj najlepsze modele i ich błędy Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Teraz Twoja kolej! Rozdział 3. Klasyfikacja Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa Rozdział 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Metoda elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax Rozdział 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Dodawanie cech podobieństwa Gaussowskie jądro RBF Złożoność obliczeniowa Regresja SVM Mechanizm działania Funkcja decyzyjna i prognozy Cel uczenia Programowanie kwadratowe Problem dualny Kernelizowane maszyny SVM Przyrostowe maszyny SVM Rozdział 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Niestabilność Rozdział 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Kontaminacja Rozdział 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Główne składowe Rzutowanie na d wymiarów Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Przyrostowa analiza PCA Losowa analiza PCA Jądrowa analiza PCA Wybór jądra i strojenie hiperparametrów Algorytm LLE Inne techniki redukowania wymiarowości Część II Sieci neuronowe i uczenie głębokie Rozdział 9. Instalacja i używanie modułu TensorFlow Instalacja Tworzenie pierwszego grafu i uruchamianie go w sesji Zarządzanie grafami Cykl życia wartości w węźle Regresja liniowa przy użyciu modułu TensorFlow Implementacja metody gradientu prostego Ręczne obliczanie gradientów Automatyczne różniczkowanie Korzystanie z optymalizatora Dostarczanie danych algorytmowi uczącemu Zapisywanie i wczytywanie modeli Wizualizowanie grafu i krzywych uczenia za pomocą modułu TensorBoard Zakresy nazw Modułowość Udostępnianie zmiennych Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Uczenie sieci MLP za pomocą zaawansowanego interfejsu API modułu TensorFlow Uczenie głębokiej sieci neuronowej za pomocą standardowego interfejsu TensorFlow Faza konstrukcyjna Faza wykonawcza Korzystanie z sieci neuronowej Strojenie hiperparametrów sieci neuronowej Liczba ukrytych warstw Liczba neuronów tworzących warstwę ukrytą Funkcje aktywacji Rozdział 11. Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjacje wag Xaviera i He Nienasycające funkcje aktywacji Normalizacja wsadowa Implementacja normalizacji wsadowej za pomocą modułu TensorFlow Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Wielokrotne stosowanie modelu TensorFlow Wykorzystywanie modeli utworzonych w innych środowiskach Zamrażanie niższych warstw Zapamiętywanie warstw ukrytych Modyfikowanie, usuwanie lub zastępowanie górnych warstw Repozytoria modeli Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyśpieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizacja Adam Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób unikania przetrenowania Wczesne zatrzymywanie Regularyzacja 1 i 2 Porzucanie Regularyzacja typu max-norm Dogenerowanie danych Praktyczne wskazówki Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Wiele urządzeń na jednym komputerze Instalacja Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji na urządzeniach Proste rozmieszczanie Zapisywanie zdarzeń rozmieszczania Funkcja dynamicznego rozmieszczania Operacje i jądra Miękkie rozmieszczanie Przetwarzanie równoległe Zależności sterujące Wiele urządzeń na wielu serwerach Otwieranie sesji Usługi nadrzędna i robocza Przypinanie operacji w wielu zadaniach Rozdzielanie zmiennych pomiędzy wiele serwerów parametrów Udostępnianie stanu rozproszonych sesji za pomocą kontenerów zasobów Komunikacja asynchroniczna za pomocą kolejek Umieszczanie danych w kolejce Usuwanie danych z kolejki Kolejki krotek Zamykanie kolejki RandomShuffleQueue PaddingFIFOQueue Wczytywanie danych bezpośrednio z grafu Wstępne wczytanie danych do zmiennej Wczytywanie danych uczących bezpośrednio z grafu Czytniki wieloklasowe wykorzystujące klasy Coordinator i QueueRunner Inne funkcje pomocnicze Przetwarzanie równoległe sieci neuronowych w klastrze TensorFlow Jedna sieć neuronowa na każde urządzenie Replikacja wewnątrzgrafowa i międzygrafowa Zrównoleglanie modelu Zrównoleglanie danych Aktualizacje synchroniczne Aktualizacje asynchroniczne Nasycenie przepustowości Implementacja w module TensorFlow Rozdział 13. Splotowe sieci neuronowe Architektura kory wzrokowej Warstwa splotowa Filtry Stosy map cech Implementacja w module TensorFlow Zużycie pamięci operacyjnej Warstwa łącząca Architektury splotowych sieci neuronowych LeNet-5 AlexNet GoogLeNet ResNet Rozdział 14. Rekurencyjne sieci neuronowe Neurony rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Podstawowe sieci RSN w module TensorFlow Statyczne rozwijanie w czasie Dynamiczne rozwijanie w czasie Obsługa sekwencji wejściowych o zmiennej długości Obsługa sekwencji wyjściowych o zmiennej długości Uczenie rekurencyjnych sieci neuronowych Uczenie klasyfikatora sekwencji Uczenie w celu przewidywania szeregów czasowych Twórcza sieć rekurencyjna Głębokie sieci rekurencyjne Rozmieszczanie głębokiej sieci rekurencyjnej pomiędzy wiele kart graficznych Wprowadzanie metody porzucania Problem uczenia w sieciach wielotaktowych Komórka LSTM Połączenia przezierne Komórka GRU Przetwarzanie języka naturalnego Reprezentacje wektorowe słów Sieć typu koder-dekoder służąca do tłumaczenia maszynowego Rozdział 15. Autokodery Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja w module TensorFlow Wiązanie wag Uczenie autokoderów pojedynczo Wizualizacja rekonstrukcji Wizualizowanie cech Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Autokodery odszumiające Implementacja w module TensorFlow Autokodery rzadkie Implementacja w module TensorFlow Autokodery wariacyjne Generowanie cyfr Inne autokodery Rozdział 16. Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie polityki Wprowadzenie do narzędzia OpenAI gym Sieci neuronowe jako polityki Ocenianie czynności problem przypisania zasługi Gradienty polityk Procesy decyzyjne Markowa Uczenie metodą różnic czasowych i algorytm Q-uczenia Polityki poszukiwania Przybliżający algorytm Q-uczenia Nauka gry w Ms. Pac-Man za pomocą głębokiego Q-uczenia Rozdział 1. Krajobraz uczenia maszynowego Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Rozdział 3. Klasyfikacja Rozdział 4. Uczenie modeli Rozdział 5. Maszyny wektorów nośnych Rozdział 6. Drzewa decyzyjne Rozdział 7. Uczenie zespołowe i losowe lasy Rozdział 8. Redukcja wymiarowości Rozdział 9. Instalacja i używanie modułu TensorFlow Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Rozdział 11. Uczenie głębokich sieci neuronowych Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Rozdział 13. Splotowe sieci neuronowe Rozdział 14. Rekurencyjne sieci neuronowe Rozdział 15. Autokodery Rozdział 16. Uczenie przez wzmacnianie Dodatek B Lista kontrolna projektu uczenia maszynowego Określenie problemu i przeanalizowanie go w szerszej perspektywie Pozyskanie danych Analiza danych Przygotowanie danych Stworzenie krótkiej listy obiecujących modeli Dostrojenie modelu Zaprezentowanie rozwiązania Dodatek C Problem dualny w maszynach wektorów nośnych Dodatek D Różniczkowanie automatyczne Różniczkowanie ręczne Różniczkowanie symboliczne Różniczkowanie numeryczne Różniczkowanie automatyczne Odwrotne różniczkowanie automatyczne Dodatek E Inne popularne architektury sieci neuronowych Sieci Hopfielda Maszyny Boltzmanna Ograniczone maszyny Boltzmanna Głębokie sieci przekonań Mapy samoorganizujące
Sygnatura czytelni BWEAiI: XII Ł 101
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146326 N (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn, Keras i TensorFlow / Aurélien Géron ; przekład: Krzysztof Sawka. - Gliwice : Helion, 2023. - 774, [2] strony : fotografie, ilustracje, wykresy ; 24 cm.
Wydanie 3. odnosi się do oryginału. Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Indeks.
Podstawy uczenia maszynowego Nadzorowanie uczenia Uczenie wsadowe i uczenie przyrostowe Uczenie z przykładów i uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Testowanie i ocenianie Strojenie hiperparametrów i dobór modelu Niezgodność danych Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz wskaźnik wydajności Zdobądź dane Uruchom przykładowy kod w serwisie Google Colab Zapisz zmiany w kodzie i w danych Zalety i wady interaktywności Kod w książce a kod w notatnikach Jupyter Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Zwizualizuj dane geograficzne Poszukaj korelacji Eksperymentuj z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyść dane Obsługa tekstu i atrybutów kategorialnych Skalowanie i przekształcanie cech Niestandardowe transformatory Potoki transformujące Wybierz i wytrenuj model Trenuj i oceń model za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizowanie najlepszych modeli i ich błędów Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Regresja metodą elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Cechy podobieństwa Gaussowskie jądro RBF Klasy SVM i złożoność obliczeniowa Regresja SVM Mechanizm działania liniowych klasyfikatorów SVM Problem dualny Kernelizowane maszyny SVM 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Wrażliwość na orientację osi Drzewa decyzyjne mają znaczną wariancję 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Wzmacnianie gradientu w oparciu o histogram Kontaminacja 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Rzutowanie na d wymiarów
Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Losowa analiza PCA Przyrostowa analiza PCA Rzutowanie losowe Algorytm LLE Inne techniki redukowania wymiarowości 9. Techniki uczenia nienadzorowanego Analiza skupień: algorytm centroidów i DBSCAN Algorytm centroidów Granice algorytmu centroidów Analiza skupień w segmentacji obrazu Analiza skupień w uczeniu półnadzorowanym Algorytm DBSCAN Mieszaniny gaussowskie Wykrywanie anomalii za pomocą mieszanin gaussowskich Wyznaczanie liczby skupień Bayesowskie modele mieszane Sieci neuronowe i uczenie głębokie 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Regresyjne perceptrony wielowarstwowe Klasyfikacyjne perceptrony wielowarstwowe Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego Zapisywanie i odczytywanie modelu Stosowanie wywołań zwrotnych Wizualizacja danych za pomocą narzędzia TensorBoard Dostrajanie hiperparametrów sieci neuronowej Liczba warstw ukrytych Liczba neuronów w poszczególnych warstwach ukrytych Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjalizacje wag Glorota i He Lepsze funkcje aktywacji Normalizacja wsadowa Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Uczenie transferowe w interfejsie Keras Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizator Adam AdaMax Nadam AdamW Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób zapobiegania przetrenowaniu Regularyzacja l1 i l2 Porzucanie Regularyzacja typu Monte Carlo (MC) Regularyzacja typu max-norm Modele niestandardowe i uczenie za pomocą modułu TensorFlow Krótkie omówienie modułu TensorFlow Korzystanie z modułu TensorFlow jak z biblioteki NumPy Tensory i operacje Tensory a biblioteka NumPy Konwersje typów Zmienne Dostosowywanie modeli i algorytmów uczenia Niestandardowe funkcje straty Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia Niestandardowe wskaźniki Niestandardowe warstwy Niestandardowe modele Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu Obliczanie gradientów za pomocą różniczkowania automatycznego Niestandardowe pętle uczenia Funkcje i grafy modułu TensorFlow AutoGraph i kreślenie Reguły związane z funkcją TF Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow Interfejs tf.data Łączenie przekształceń Tasowanie danych Przeplatanie wierszy z różnych plików Wstępne przetwarzanie danych Składanie wszystkiego w całość Pobieranie wstępne Stosowanie zestawu danych z interfejsem Keras Format TFRecord Skompresowane pliki TFRecord Wprowadzenie do buforów protokołów Bufory protokołów w module TensorFlow Wczytywanie i analizowanie składni obiektów Example Obsługa list list za pomocą bufora protokołów SequenceExample Warstwy przetwarzania wstępnego Keras Warstwa Normalization Warstwa Discretization Warstwa CategoryEncoding Warstwa StringLookup Warstwa Hashing Kodowanie cech kategorialnych za pomocą wektorów właściwościowych Wstępne przetwarzanie tekstu Korzystanie z wytrenowanych składników modelu językowego Warstwy wstępnego przetwarzania obrazów Projekt TensorFlow Datasets (TFDS) Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych Struktura kory wzrokowej Warstwy splotowe Filtry Stosy map cech Implementacja warstw splotowych w interfejsie Keras Zużycie pamięci operacyjnej Warstwa łącząca Implementacja warstw łączących w interfejsie Keras Architektury splotowych sieci neuronowych LeNet-5 AlexNet
GoogLeNet VGGNet ResNet Xception SENet Wybór właściwej struktury CNN Implementacja sieci ResNet-34 za pomocą interfejsu Keras Korzystanie z gotowych modeli w interfejsie Keras Gotowe modele w uczeniu transferowym Klasyfikowanie i lokalizowanie Wykrywanie obiektów W pełni połączone sieci splotowe Sieć YOLO Śledzenie obiektów Segmentacja semantyczna Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych Neurony i warstwy rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Uczenie sieci rekurencyjnych Prognozowanie szeregów czasowych Rodzina modeli ARMA Przygotowywanie danych dla modeli uczenia maszynowego Prognozowanie za pomocą modelu liniowego Prognozowanie za pomocą prostej sieci rekurencyjnej Prognozowanie za pomocą głębokich sieci rekurencyjnych Prognozowanie wielowymiarowych szeregów czasowych Prognozowanie kilka taktów w przód Prognozowanie za pomocą modelu sekwencyjnego Obsługa długich sekwencji Zwalczanie problemu niestabilnych gradientów Zwalczanie problemu pamięci krótkotrwałej Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej Tworzenie zestawu danych uczących Budowanie i uczenie modelu char-RNN Generowanie sztucznego tekstu szekspirowskiego Stanowe sieci rekurencyjne Analiza opinii Maskowanie Korzystanie z gotowych reprezentacji właściwościowych i modeli językowych Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego Dwukierunkowe sieci rekurencyjne Przeszukiwanie wiązkowe Mechanizmy uwagi Liczy się tylko uwaga: pierwotna architektura transformatora Zatrzęsienie modeli transformatorów Transformatory wizualne Biblioteka Transformers firmy Hugging Face Autokodery, generatywne sieci przeciwstawne i modele rozpraszające Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja autokodera stosowego za pomocą interfejsu Keras Wizualizowanie rekonstrukcji Wizualizowanie zestawu danych Fashion MNIST Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Wiązanie wag Uczenie autokoderów pojedynczo Autokodery splotowe Autokodery odszumiające Autokodery rzadkie Autokodery wariacyjne Generowanie obrazów Fashion MNIST Generatywne sieci przeciwstawne Problemy związane z uczeniem sieci GAN Głębokie splotowe sieci GAN Rozrost progresywny sieci GAN Sieci StyleGAN Modele rozpraszające Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie strategii Wprowadzenie do narzędzia OpenAI Gym Sieci neuronowe jako strategie Ocenianie czynności: problem przypisania zasługi Gradienty strategii Procesy decyzyjne Markowa Uczenie metodą różnic czasowych Q-uczenie Przybliżający algorytm Q-uczenia i Q-uczenie głębokie Implementacja modelu Q-uczenia głębokiego Odmiany Q-uczenia głębokiego Ustalone Q-wartości docelowe Podwójna sieć DQN Odtwarzanie priorytetowych doświadczeń Walcząca sieć DQN Przegląd popularnych algorytmów RN Wielkoskalowe uczenie i wdrażanie modeli TensorFlow Eksploatacja modelu TensorFlow Korzystanie z systemu TensorFlow Serving Tworzenie usługi predykcyjnej na platformie Vertex AI Uwierzytelnianie i autoryzacja w serwisie GCP Wykonywanie zadań predykcji wsadowych w usłudze Vertex AI Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym Przetwarzanie modelu na stronie internetowej Przyspieszanie obliczeń za pomocą procesorów graficznych Zakup własnej karty graficznej Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji i zmiennych na urządzeniach Przetwarzanie równoległe na wielu urządzeniach Uczenie modeli za pomocą wielu urządzeń Zrównoleglanie modelu Zrównoleglanie danych Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania Uczenie modelu za pomocą klastra TensorFlow Realizowanie dużych grup zadań uczenia za pomocą usługi Vertex AI Strojenie hiperparametrów w usłudze Vertex AI
Sygnatura czytelni BWEAiI: XII E 131
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154703 N (1 egz.)
Brak okładki
Książka
W koszyku
U góry okł.: Błyskawicznie opanuj środowisko produkcyjne dla Androida!
U dołu okł.: Jak rozpocząć przygodę z systemem Adndroid? Jak korzystać z usług geolokalizacyjnych? Jak tworzyć trójwymiarową grafikę, korzystając z biblioteki OpenGL?
Indeks.
Sygnatura czytelni BWEAiI: XII R 8
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 129136 N (1 egz.)
Książka
W koszyku
Deep learning : praktyczne wprowadzenie z zastosowaniem środowiska Pythona / Ron Kneusel ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 472 strony : fotografie, ilustracje, wykresy ; 23 cm.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: No starch press.
Indeks.
Środowisko operacyjne NumPy scikit-learn Keras i TensorFlow Instalacja narzędzi Podstawy algebry liniowej Wektory Macierze Mnożenie wektorów i macierzy Statystyka i prawdopodobieństwo Statystyka opisowa Rozkłady prawdopodobieństwa Testy statystyczne Procesory graficzne (GPU) 2. Korzystanie z Pythona Interpreter Pythona Instrukcje i białe znaki Zmienne i podstawowe struktury danych Przedstawianie liczb Zmienne Łańcuchy znaków Listy Słowniki Struktury sterowania Instrukcje if-elif-else Pętle for Pętle while Instrukcje break i continue Instrukcja with Obsługa błędów za pomocą bloków try-except Funkcje Moduły 3. Biblioteka NumPy Dlaczego NumPy? Tablice a listy Testowanie szybkości tablic i list Definiowanie tablicy za pomocą funkcji, np. array Definiowanie tablic wypełnionych zerami i jedynkami Dostęp do elementów tablicy Indeksowanie tablicowe Uzyskiwanie wycinków tablicy Wielokropek Operatory i rozgłaszanie Dane wejściowe i wyjściowe tablic Liczby losowe Biblioteka NumPy i obrazy 4. Praca z danymi Klasy i etykiety Cechy i wektory cech Dobór cech i klątwa wymiarowości Własności dobrego zestawu danych Interpolacja i ekstrapolacja Główny rozkład prawdopodobieństwa Rozkład a priori Przykłady mylące Rozmiar zestawu danych Przygotowanie danych Skalowanie cech Brakujące cechy Dane uczące, walidacyjne i testowe Trzy podzbiory Dzielenie zestawu danych k-krotny sprawdzian krzyżowy Analiza danych Wyszukiwanie problemów z danymi 5. Budowanie zestawów danych Kosaćce (zestaw danych Iris) Nowotwory piersi (zestaw danych Breast Cancer) Cyfry zapisane pismem odręcznym (zestaw danych MNIST) Różne obrazy (zestaw danych CIFAR-10) Rozszerzanie danych Dlaczego należy rozszerzać dane uczące? Sposoby rozszerzania danych Rozszerzanie zestawu danych Iris Rozszerzanie zestawu danych CIFAR-10 6. Klasyczne uczenie maszynowe Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne i lasy losowe Rekurencja Budowanie drzew decyzyjnych Lasy losowe Maszyny wektorów nośnych Marginesy Wektory nośne Optymalizacja Jądra 7. Eksperymentowanie z klasycznymi modelami Eksperymenty z użyciem zestawu danych Iris Testowanie klasycznych modeli Implementacja klasyfikatora najbliższego centroidu Eksperymenty z użyciem zestawu danych Breast Cancer Dwa pierwsze przebiegi testowe Skutek losowych podziałów Dodawanie k-krotnego sprawdzianu krzyżowego Poszukiwanie hiperparametrów Eksperymenty z użyciem zestawu danych MNIST Testowanie klasycznych modeli Analiza czasu działania Eksperymenty z głównymi składowymi analizy PCA Tasowanie zestawu danych Podsumowanie klasycznych modeli Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Lasy losowe Maszyny wektorów nośnych Kiedy używać klasycznych modeli? Korzystanie z małych zestawów danych Ograniczone zasoby obliczeniowe Dostęp do wyjaśnialnych modeli Praca z danymi wektorowymi 8. Wprowadzenie do sieci neuronowych Anatomia sieci neuronowej Neuron Funkcje aktywacji Architektura sieci Warstwy wyjściowe Wagi i obciążenia Implementacja prostej sieci neuronowej Przygotowanie zestawu danych Implementacja sieci neuronowej Uczenie i testowanie sieci neuronowej 9. Uczenie sieci neuronowej Algorytm gradientu prostego Wyszukiwanie minimów Aktualizowanie wag Stochastyczny spadek wzdłuż gradientu Grupy i minigrupy Funkcje wypukłe i niewypukłe Kończenie uczenia Aktualizowanie współczynnika uczenia Momentum Propagacja wsteczna Propagacja wsteczna - ujęcie pierwsze Propagacja wsteczna - ujęcie drugie Funkcje straty Błąd bezwzględny i błąd średniokwadratowy Entropia krzyżowa Inicjalizowanie wag Przetrenowanie i regularyzacja Przetrenowanie Regularyzacja Regularyzacja L2 Porzucanie 10. Eksperymentowanie z sieciami neuronowymi Nasz zestaw danych Klasa MLPClassifier Struktura sieci i funkcje aktywacji Kod Rozmiar grupy Podstawowy współczynnik uczenia Rozmiar zbioru uczącego Regularyzacja L2 Momentum Inicjalizacja wag Kolejność cech Ocenianie modeli Dlaczego dokładność jest niewystarczająca? Macierz pomyłek 2×2 Wskaźniki wyprowadzane z macierzy pomyłek Wyprowadzanie wskaźników na podstawie macierzy pomyłek Interpretowanie modeli za pomocą wskaźników Zaawansowane wskaźniki Informatywność i nacechowanie Wskaźnik F1 Współczynnik kappa Cohena Współczynnik korelacji Matthewsa Implementacja zaawansowanych wskaźników Krzywa charakterystyki operacyjnej odbiornika Dobór modeli Rysowanie wykresu wskaźników Analiza krzywej ROC Porównywanie modeli za pomocą analizy ROC Generowanie krzywej ROC Krzywa precyzji-czułości Przypadki wieloklasowe Rozszerzanie macierzy pomyłek Obliczanie dokładności ważonej Wieloklasowy współczynnik korelacji Matthewsa Wprowadzenie do splotowych sieci neuronowych Dlaczego splotowe sieci neuronowe? Splot Skanowanie za pomocą jądra Splot w przetwarzaniu obrazów Anatomia splotowej sieci neuronowej Różne typy warstw Przepuszczanie danych przez sieć splotową Warstwy splotowe Mechanizm działania warstwy splotowej Korzystanie z warstwy splotowej Wielokrotne warstwy splotowe Inicjalizacja warstwy splotowej Warstwy łączące Warstwy w pełni połączone Pełne warstwy splotowe Eksperymentowanie z biblioteką Keras i zestawem danych MNIST Budowanie sieci splotowych w bibliotece Keras Wczytywanie danych MNIST Budowanie modelu Uczenie i ocena modelu Tworzenie wykresu funkcji błędu Podstawowe eksperymenty Eksperymenty na architekturze Rozmiar zbioru uczącego, minigrup oraz liczba epok Optymalizatory Pełne sieci splotowe Budowa i trenowanie modelu Przygotowanie obrazów testowych Testowanie modelu Potasowane cyfry MNIST Eksperymentowanie z zestawem danych CIFAR-10 Zestaw CIFAR-10 - przypomnienie Praca na pełnym zestawie CIFAR-10 Budowanie modeli Analizowanie modeli Zwierzę czy pojazd? Model binarny czy wieloklasowy? Uczenie transferowe Strojenie modelu Przygotowanie zestawów danych Dostosowanie modelu do strojenia Testowanie modelu Studium przypadku: klasyfikowanie próbek dźwiękowych Budowanie zestawu danych Rozszerzanie zestawu danych Wstępne przetwarzanie danych Klasyfikowanie cech dźwiękowych Modele klasyczne Tradycyjna sieć neuronowa Splotowa sieć neuronowa Spektrogramy Klasyfikowanie spektrogramów Inicjalizacja, regularyzacja i normalizacja wsadowa Analiza macierzy pomyłek
Sygnatura czytelni BWEAiI: XII Ł 215
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153005 (1 egz.)
Książka
W koszyku
U dołu s. tyt. i okł. logo wydaw. oryg.: Apress.
U góry okł.: Kompendium wiedzy na temat platformy Android!
Indeks.
Sygnatura czytelni BWEAiI: XII R 10
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 135024, 135025 (2 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 132822 N (1 egz.)
Książka
W koszyku
(Technologia i Rozwiązania)
Na s. tyt., okł.: Poznaj świat systemu Linux!
Na s. tyt., okł. logo wydaw. oryg.: Pack Publishing.
Na okł. nazwa serii wyd. oryg.: Community experience distilled.
Indeks.
Dla początkujących uzytkowników Linuxa, a także dla osób poszukujących ogólnego przewodnika po Linuxe Mint.
Sygnatura czytelni BWEAiI: XII S 23
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 141098 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: R cookbook : proven recipes for data analysis, statistics and graphics.
Wydanie 2. odnosi się do oryginału.
Indeks.
1. Pierwsze kroki i uzyskiwanie pomocy 17 1.1. Pobranie i instalacja R 18 1.2. Instalacja środowiska RStudio 20 1.3. Uruchamianie środowiska RStudio 21 1.4. Wprowadzanie poleceń 23 1.5. Wyjście ze środowiska RStudio 24 1.6. Przerywanie realizacji kodu R 26 1.7. Przeglądanie dołączonej dokumentacji 27 1.8. Uzyskiwanie pomocy na temat funkcji 28 1.9. Wyszukiwanie dodatkowej dokumentacji 30 1.10. Uzyskiwanie pomocy na temat pakietu 31 1.11. Wyszukiwanie pomocy w internecie 32 1.12. Wyszukiwanie przydatnych funkcji i pakietów 35 1.13. Przeszukiwanie list dyskusyjnych 36 1.14. Przesyłanie pytań do serwisu Stack Overflow lub innego 37 2. Garść podstaw 41 2.1. Wyświetlanie interesujących nas danych na ekranie 41 2.2. Wyznaczanie zmiennych 43 2.3. Tworzenie listy zmiennych 44 2.4. Usuwanie zmiennych 46 2.5. Tworzenie wektorów 47 2.6. Obliczanie podstawowych statystyk 49 2.7. Tworzenie sekwencji 51 2.8. Porównywanie wektorów 52 2.9. Wybieranie elementów wektora 54 2.10. Wykonywanie obliczeń wektorowych 57 2.11. Ustalanie pierwszeństwa operatorów 59 2.12. Osiąganie więcej przy mniejszej liczbie znaków 61 2.13. Tworzenie strumienia wywołań funkcji 62 2.14. Unikanie najpowszechniejszych pomyłek 65 3. Korzystanie z oprogramowania 71 3.1. Sprawdzanie i wyznaczanie katalogu roboczego 71 3.2. Tworzenie nowego projektu RStudio 72 3.3. Zapisywanie przestrzeni roboczej 74 3.4. Przeglądanie historii wpisanych poleceń 75 3.5. Zapisywanie wyniku wcześniejszego polecenia 76 3.6. Wyświetlanie załadowanych pakietów poprzez ścieżkę wyszukiwania 77 3.7. Przeglądanie listy zainstalowanych pakietów 79 3.8. Uzyskiwanie dostępu do funkcji zawartych w pakiecie 80 3.9. Uzyskiwanie dostępu do wbudowanych zestawów danych 81 3.10. Instalowanie pakietów z repozytorium CRAN 82 3.11. Instalowanie pakietu z serwisu GitHub 84 3.12. Wyznaczanie lub zmiana domyślnego serwera CRAN 85 3.13. Uruchamianie skryptu 86 3.14. Uruchamianie skryptu wsadowego 87 3.15. Wyszukiwanie katalogu domowego R 89 3.16. Personalizowanie rozruchu R 91 3.17. Korzystanie z R i RStudio w chmurze 94 4. Dane wejściowe i wyjściowe 97 4.1. Wprowadzanie danych za pomocą klawiatury 97 4.2. Wyświetlanie mniejszej (lub większej) liczby znaków 98 4.3. Przekierowywanie wyników do pliku 100 4.4. Wyświetlanie listy plików 101 4.5. Problem z otwieraniem pliku w systemie Windows 103 4.6. Odczytywanie rekordów o stałej szerokości 104 4.7. Odczytywanie plików danych tabelarycznych 107 4.8. Odczytywanie plików CSV 110 4.9. Zapisywanie danych w pliku CSV 112 4.10. Odczytywanie danych tabelarycznych lub CSV z internetu 113 4.11. Odczytywanie danych z arkuszy Excel 114 4.12. Zapisywanie ramki danych w pliku Excel 116 4.13. Odczytywanie danych z pliku SAS 118 4.14. Odczytywanie danych z tabel HTML 120 4.15. Odczytywanie plików o skomplikowanej strukturze 122 4.16. Odczyt baz danych MySQL 126 4.17. Uzyskiwanie dostępu do bazy danych za pomocą pakietu dbplyr 129 4.18. Zapisywanie i transportowanie obiektów 131 5. Struktury danych 135 5.1. Dodawanie danych do wektora 142 5.2. Wstawianie danych do wektora 144 5.3. Reguła zawijania 144 5.4. Tworzenie wektora czynnikowego (zmiennej kategorialnej) 146 5.5. Łączenie wielu wektorów w jeden wektor i wektor czynnikowy 147 5.6. Tworzenie listy 149 5.7. Wybieranie elementów listy za pomocą ich pozycji 150 5.8. Wybieranie elementów listy po nazwie 152 5.9. Tworzenie listy asocjacyjnej nazwa/wartość 153 5.10. Usuwanie elementu z listy 155 5.11. Spłaszczanie listy do postaci wektora 156 5.12. Usuwanie elementów o wartości NULL z listy 157 5.13. Warunkowe usuwanie elementów listy 158 5.14. Inicjowanie macierzy 159 5.15. Wykonywanie operacji macierzowych 161 5.16. Nadawanie nazw opisowych rzędom i kolumnom macierzy 162 5.17. Wybór jednego rzędu/kolumny macierzy 163 5.18. Inicjowanie ramki danych z danymi kolumny 164 5.19. Inicjowanie ramki danych z danymi rzędu 165 5.20. Dołączanie rzędów do ramki danych 168 5.21. Wybór kolumn ramki danych za pomocą pozycji 170 5.22. Wybór kolumn ramki danych za pomocą nazwy 174 5.23. Zmienianie nazw kolumn w ramce danych 175 5.24. Usuwanie wartości NA z ramki danych 176 5.25. Wykluczanie kolumn za pomocą nazwy 177 5.26. Łączenie dwóch ramek danych 178 5.27. Scalanie kolumn dwóch ramek danych 179 5.28. Przekształcanie jednej wartości atomowej w inną 181 5.29. Przekształcanie jednego ustrukturyzowanego typu danych w inny 183 6. Przekształcenia danych 187 6.1. Stosowanie funkcji wobec każdego elementu listy 187 6.2. Stosowanie funkcji wobec każdego rzędu ramki danych 190 6.3. Stosowanie funkcji wobec każdego rzędu macierzy 191 6.4. Stosowanie funkcji wobec każdej kolumny 192 6.5. Stosowanie funkcji wobec wektorów równoległych lub list 194 6.6. Stosowanie funkcji wobec grup danych 196 6.7. Tworzenie nowej kolumny na podstawie jakiegoś warunku 197 7. Łańcuchy znaków i daty 199 7.1. Uzyskiwanie długości łańcucha znaków 201 7.2. Łączenie łańcuchów znaków 202 7.3. Wydobywanie fragmentów łańcuchów znaków 203 7.4. Rozdzielanie łańcucha znaków zgodnie z rozgranicznikiem 204 7.5. Zastępowanie fragmentów łańcuchów znaków 205 7.6. Tworzenie wszystkich kombinacji par łańcuchów znaków 206 7.7. Uzyskiwanie bieżącej daty 208 7.8. Przekształcanie łańcucha znaków w obiekt Date 208 7.9. Przekształcanie obiektu Date w łańcuch znaków 209 7.10. Przekształcanie roku, miesiąca i dnia w obiekt Date 210 7.11. Uzyskiwanie daty juliańskiej 211 7.12. Wydobywanie elementów składowych daty 212 7.13. Tworzenie sekwencji dat 213 8. Prawdopodobieństwo 215 8.1. Wyznaczanie liczby kombinacji 217 8.2. Generowanie kombinacji 218 8.3. Generowanie liczb losowych 219 8.4. Generowanie odtwarzalnych liczb losowych 220 8.5. Generowanie próby losowej 222 8.6. Generowanie sekwencji losowych 223 8.7. Losowe permutacje wektora 224 8.8. Obliczanie prawdopodobieństwa rozkładów dyskretnych 225 8.9. Obliczanie prawdopodobieństwa rozkładów ciągłych 226 8.10. Przekształcanie prawdopodobieństw w kwantyle 228 8.11. Tworzenie wykresu funkcji gęstości 229 9. Statystyka ogólna 235 9.1. Podsumowywanie danych 237 9.2. Obliczanie częstości względnych 239 9.3. Zestawianie wektorów czynnikowych w tabeli i tworzenie tablic wielodzielczych 240 9.4. Sprawdzanie niezależności zmiennych kategorialnych 241 9.5. Obliczanie kwantylów (i kwartylów) zestawu danych 242 9.6. Uzyskiwanie odwrotności kwantylu 243 9.7. Normalizowanie danych 244 9.8. Testowanie średniej próby (test t) 244 9.9. Kształtowanie przedziału ufności dla średniej 246 9.10. Kształtowanie przedziału ufności dla mediany 247 9.11. Testowanie proporcji próby 248 9.12. Kształtowanie przedziału ufności dla proporcji 249 9.13. Testowanie pod względem rozkładu normalnego 250 9.14. Testowanie przebiegów 251 9.15. Porównywanie średnich dwóch prób 252 9.16. Nieparametryczne porównywanie położenia dwóch prób 254 9.17. Testowanie korelacji pod względem istotności 256 9.18. Testowanie grup pod względem równych proporcji 257 9.19. Porównywanie parami średnich poszczególnych grup 259 9.20. Testowanie dwóch prób w kontekście tego samego rozkładu 260 10. Grafika 263 10.1. Tworzenie wykresu punktowego 267 10.2. Wstawianie tytułu i etykiet 267 10.3. Dodawanie (lub usuwanie) siatki 269 10.4. Stosowanie motywu wobec wykresu ggplot 272 10.5. Tworzenie wielogrupowego wykresu punktowego 277 10.6. Dodawanie (lub usuwanie) legendy 278 10.7. Rysowanie linii regresji na wykresie punktowym 282 10.8. Tworzenie wykresów par zmiennych 285 10.9. Tworzenie wykresów punktowych dla poszczególnych grup danych 287 10.10. Tworzenie wykresu kolumnowego 289 10.11. Umieszczanie przedziałów ufności na wykresie kolumnowym 292 10.12. Wprowadzanie kolorów na wykresie kolumnowym 295 10.13. Rysowanie linii łączącej pary punktów x i y 297 10.14. Zmiana rodzaju, szerokości i koloru linii 297 10.15. Tworzenie wykresu zawierającego wiele zestawów danych 301 10.16. Dodawanie linii pionowych lub poziomych 302 10.17. Tworzenie wykresu pudełkowego 304 10.18. Tworzenie po jednym wykresie pudełkowym na każdy poziom wektora czynnikowego 306 10.19. Tworzenie histogramu 308 10.20. Dodawanie oszacowania gęstości do histogramu 310 10.21. Tworzenie standardowego wykresu kwantyl-kwantyl 311 10.22. Tworzenie innych wykresów kwantyl-kwantyl 314 10.23. Rysowanie zmiennej w różnych kolorach 316 10.24. Tworzenie wykresu funkcji 319 10.25. Wyświetlanie wielu wykresów na jednej stronie 321 10.26. Zapisywanie wykresu do pliku 324 11. Regresja liniowa i analiza ANOVA 327 11.1. Przeprowadzanie prostej analizy liniowej 329 11.2. Przeprowadzanie wielorakiej regresji liniowej 331 11.3. Uzyskiwanie statystyk regresji 332 11.4. Omówienie podsumowania regresji 335 11.5. Przeprowadzanie regresji liniowej bez użycia punktu przecięcia z osią współrzędnych 338 11.6. Przeprowadzanie regresji wyłącznie przy użyciu zmiennych ściśle skorelowanych ze zmienną objaśnianą 339 11.7. Przeprowadzanie regresji liniowej z członami interakcyjnymi 342 11.8. Wybór najlepszych zmiennych regresji 344 11.9. Przeprowadzanie regresji na podzbiorze danych 349 11.10. Korzystanie ze wzorów w równaniu regresji 350 11.11. Przeprowadzanie regresji względem wielomianu 351 11.12. Regresja względem przekształconych danych 353 11.13. Wyszukiwanie najlepszego przekształcenia potęgowego (procedura Boxa-Coxa) 355 11.14. Kształtowanie przedziałów ufności dla współczynników regresji 359 11.15. Tworzenie wykresu elementów resztowych regresji 360 11.16. Diagnozowanie regresji liniowej 361 11.17. Wykrywanie najbardziej znaczących obserwacji 364 11.18. Testowanie wartości resztowych pod względem autokorelacji (test Durbina-Watsona) 366 11.19. Przewidywanie nowych wartości 367 11.20. Kształtowanie przedziałów predykcji 368 11.21. Przeprowadzanie jednoczynnikowej analizy ANOVA 369 11.22. Tworzenie wykresu interakcji 371 11.23. Wyszukiwanie różnic pomiędzy średnimi grup 372 11.24. Przeprowadzanie odpornej analizy ANOVA (test Kruskala-Wallisa) 375 11.25. Porównywanie modeli za pomocą analizy ANOVA 376 12. Przydatne sztuczki 379 12.1. Zaglądanie do danych 379 12.2. Wyświetlanie rezultatu przypisania 380 12.3. Sumowanie rzędów lub kolumn 382 12.4. Wyświetlanie danych w kolumnach 383 12.5. Grupowanie danych w przedziały 384 12.6. Określanie położenia danej wartości 385 12.7. Wybieranie co n-tego elementu wektora 385 12.8. Określanie minimów i maksimów 386 12.9. Tworzenie wszystkich kombinacji kilku zmiennych 388 12.10. Spłaszczanie ramki danych 389 12.11. Sortowanie ramki danych 390 12.12. Usuwanie atrybutów ze zmiennej 391 12.13. Odkrywanie struktury obiektu 392 12.14. Obliczanie czasu potrzebnego na realizację kodu 395 12.15. Wstrzymywanie ostrzeżeń i komunikatów o błędach 396 12.16. Pobieranie argumentów funkcji z listy 397 12.17. Definiowanie własnych operatorów binarnych 399 12.18. Blokowanie komunikatu rozruchowego 401 12.19. Przeglądanie i wyznaczanie zmiennych środowiskowych 401 12.20. Używanie sekcji kodu 402 12.21. Równoległe przetwarzanie kodu R na komputerze lokalnym 403 12.22. Równoległe przetwarzanie kodu R w sposób zdalny 406 13. Zaawansowane obliczenia numeryczne i statystyczne 411 13.1. Minimalizowanie lub maksymalizowanie funkcji jednoparametrowej 411 13.2. Minimalizowanie lub maksymalizowanie funkcji wieloparametrowej 412 13.3. Obliczanie wartości własnych i wektorów własnych 414 13.4. Przeprowadzanie analizy głównych składowych 415 13.5. Przeprowadzanie prostej regresji ortogonalnej 416 13.6. Wyszukiwanie skupień w danych 418 13.7. Przewidywanie zmiennej binarnej (regresja logistyczna) 421 13.8. Metody samowsporne 423 13.9. Analiza czynnikowa 425 14. Analiza szeregów czasowych 431 14.1. Reprezentowanie danych szeregów czasowych 433 14.2. Tworzenie wykresów danych szeregów czasowych 436 14.3. Wydobywanie najstarszych lub najnowszych obserwacji 437 14.4. Tworzenie podzbiorów z szeregów czasowych 439 14.5. Scalanie kilku szeregów czasowych 441 14.6. Uzupełnianie brakujących obserwacji w szeregach czasowych 443 14.7. Opóźnianie lub przyspieszanie szeregu czasowego 446 14.8. Obliczanie kolejnych różnic 447 14.9. Wykonywanie obliczeń na szeregu czasowym 449 14.10. Obliczanie średniej kroczącej 450 14.11. Stosowanie funkcji przy uwzględnieniu okresu kalendarzowego 451 14.12. Stosowanie funkcji rozwijającej 453 14.13. Tworzenie wykresu funkcji autokorelacji 455 14.14. Testowanie szeregów czasowych pod kątem autokorelacji 456 14.15. Tworzenie wykresu funkcji autokorelacji cząstkowej 457 14.16. Wyszukiwanie korelacji opóźnionych pomiędzy dwoma szeregami czasowymi 459 14.17. Usuwanie trendów z szeregów czasowych 461 14.18. Dopasowywanie modelu ARIMA 463 14.19. Usuwanie nieistotnych współczynników z modelu ARIMA 466 14.20. Diagnozowanie modelu ARIMA 468 14.21. Uzyskiwanie prognoz z modelu ARIMA 470 14.22. Tworzenie wykresu prognoz 471 14.23. Sprawdzanie występowania zjawiska równania do średniej w szeregu czasowym 472 14.24. Wygładzanie szeregu czasowego 475 15. Elementy prostego programowania 479 15.1. Wybór pomiędzy dwiema alternatywnymi opcjami: if/else 480 15.2. Przetwarzanie w pętli 482 15.3. Definiowanie funkcji 483 15.4. Tworzenie zmiennej lokalnej 485 15.5. Wybór pomiędzy wieloma alternatywnymi ścieżkami: funkcja switch 485 15.6. Definiowanie wartości domyślnych parametrów 487 15.7. Sygnalizowanie błędów 488 15.8. Ochrona przed błędami 489 15.9. Tworzenie funkcji anonimowej 490 15.10. Tworzenie zbioru funkcji wielokrotnego użytku 491 15.11. Automatyczne formatowanie kodu 492 16. Środowisko R Markdown i publikowanie 495 16.1. Tworzenie nowego dokumentu 496 16.2. Dodawanie tytułu, danych autora i daty 498 16.3. Formatowanie dokumentu tekstowego 499 16.4. Wstawianie nagłówków dokumentu 500 16.5. Wstawianie listy 500 16.6. Prezentowanie wyników kodu R 502 16.7. Kontrolowanie wyświetlania kodu i wyników 503 16.8. Wstawianie wykresu 505 16.9. Wstawianie tabeli 507 16.10. Wstawianie wygenerowanej tabeli 509 16.11. Wstawianie równań matematycznych 512 16.12. Generowanie wyniku w formacie HTML 513 16.13. Generowanie wyniku w formacie PDF 514 16.14. Generowanie wyników w formacie Microsoft Word 516 16.15. Generowanie pliku prezentacji 522 16.16. Tworzenie parametryzowanego raportu 524 16.17. Organizowanie pracy z dokumentami R Markdown 527
Sygnatura czytelni BWEAiI: XII L 46
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149894 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Pro Linux system administration : learn to build systems for your business using free and open source software.
Indeks.
Wprowadzenie do Linuksa Dystrybucje Linuksa Red Hat Enterprise Linux CentOS Projekt Fedora Debian Linux Ubuntu Gentoo Którą dystrybucję należy więc wybrać? Którymi dystrybucjami zajmujemy się w niniejszej książce? Dobór sprzętu Obsługiwany sprzęt Źródła oprogramowania Wsparcie techniczne Instalacja Linuksa Dystrybucje LiveCD i maszyny wirtualne Dystrybucje LiveCD Maszyny wirtualne Instalacja serwera CentOS Instalacja dystrybucji Ubuntu Rozwiązywanie problemów Informacje diagnostyczne Ponowne uruchamianie instalatora Przydatne zasoby Wprowadzenie do aplikacji VirtualBox, Git i Vagrant Instalacja aplikacji VirtualBox Kwestie licencyjne Tworzenie nowej maszyny VirtualBox Instalacja aplikacji Git Pierwsze kroki z aplikacją Git Wprowadzenie do aplikacji Vagrant Instalacja aplikacji Vagrant Koncepcje związane z programem Vagrant Pierwsze kroki z aplikacją Vagrant Podstawy Linuksa Miłe dobrego początki Logowanie Porównanie Linuksa z systemem Microsoft Windows Interfejs graficzny Wiersz poleceń Powłoki Zachęta wiersza poleceń Wpisujemy pierwsze polecenie Zdalny dostęp Korzystanie z protokołu SSH Uzyskiwanie pomocy Użytkownicy i grupy Usługi i procesy Pakiety Pliki i systemy plików Typy plików i uprawnienia Łącza Użytkownicy, grupy i prawa własności Rozmiar i przestrzeń Data i czas Praca z plikami Odczyt plików Wyszukiwanie plików Kopiowanie plików Przenoszenie plików i zmienianie ich nazw Usuwanie plików Tworzenie łączy Edytowanie plików Użytkownicy i grupy Co się dzieje w momencie logowania? Praca z użytkownikami i grupami Polecenie sudo Tworzenie użytkowników Tworzenie grup Usuwanie użytkowników i grup Zarządzanie użytkownikami i grupami w środowisku graficznym Hasła Datowanie hasła Wyłączanie użytkowników Przechowywanie danych użytkownika Przechowywanie danych grupy Konfigurowanie powłoki i środowiska Kontrolowanie dostępu do serwera Konfigurowanie modułów PAM Jeszcze o poleceniu sudo Konfigurowanie polecenia sudo Rozruch i usługi Co się dzieje po włączeniu komputera? Włączenie zasilania Programy rozruchowe Uruchamianie systemu operacyjnego Mechanizm działania programu rozruchowego GRUB2 Korzystanie z menu GRUB2 Konfigurowanie programu GRUB2 Zabezpieczenie programu rozruchowego Co się dzieje po zakończeniu etapu rozruchu? Aplikacja Systemd Program Upstart — inicjator systemu Ubuntu Wspomnienia o aplikacji SystemV Zarządzanie usługami Zarządzanie usługami za pomocą programu Systemd Wyłączanie i ponowne uruchamianie komputera z zainstalowaną dystrybucją Linuksa Harmonogramowanie usług i poleceń Liczniki czasowe inicjatora Systemd Wprowadzenie do narzędzia Cron Sieci i zapory sieciowe Wprowadzenie do sieci i ustawień sieciowych Wprowadzenie do interfejsów Zarządzanie interfejsami Konfigurowanie sieci za pomocą skryptów Podstawy modelu TCP/IP Ogólne metody rozwiązywania problemów z siecią Polecenie ping Program MTR Komenda tcpdump Narzędzie netcat Polecenie dig Inne narzędzia do rozwiązywania problemów sieciowych Dodawanie tras i przekierowywanie pakietów Pakiet Netfilter i polecenie iptables Mechanizm działania pakietu Netfilter/polecenia iptables Tablice Łańcuchy Polityki Translacja adresów sieciowych Korzystanie z polecenia firewall-cmd Polecenie ufw Korzystanie z polecenia iptables Objaśnienie reguł zapory Dzienniki połączeń, ograniczanie szybkości i zabezpieczanie zapory Netfilter Więcej informacji na temat polecenia firewall-cmd Osłony TCP Konfigurowanie połączenia ppp Konfiguracja łącza ADSL za pomocą polecenia nmcli Zarządzanie pakietami Wprowadzenie do zarządzania pakietami Zarządzanie pakietami w dystrybucji CentOS Informacje wstępne Narzędzie Application Installer Menedżer YUM Menedżer DNF, czyli „dandysowaty" menedżer YUM Pakiety RPM Zarządzanie pakietami w dystrybucji Ubuntu Aplikacja aptitude Zarządzanie pakietami w menedżerze Ubuntu Software App Menedżer dpkg Sprawdzanie szczegółowych informacji o pakietach Przeglądanie zawartości pakietu Wyszukiwanie plików Instalowanie pakietów Usuwanie pakietów Kompilowanie ze źródła Konfiguracja Kompilacja — polecenie make Instalacja Odinstalowanie Tworzenie pakietów za pomocą programu FPM Zarządzanie pamięcią masową i przywracanie sprawności po wystąpieniu awarii Podstawowe informacje o pamięciach masowych Urządzenia Partycje Systemy plików Tworzenie systemu plików wymiany Tworzenie partycji ext4 Dostosowywanie opcji systemów plików ext2, ext3 i ext4 System plików XFS System plików Btrfs Systemy plików do współdzielenia danych Inne systemy plików Korzystanie z systemu plików Automatyzowanie procesu montowania Sprawdzanie użycia systemów plików Macierze RAID Typy konfiguracji RAID Zarządzanie woluminami logicznymi Tworzenie grup i woluminów Rozszerzanie woluminu logicznego Zmniejszanie woluminu logicznego Polecenia menedżera LVM Poawaryjne odzyskiwanie danych Problemy z programem rozruchowym Awaria dysku Zaprzęganie Linuksa do pracy Usługi infrastrukturalne: NTP, DNS, DHCP i SSH Synchronizowanie czasu Konfigurowanie czasu za pomocą polecenia timedatectl Protokół czasu sieciowego Globalna pula serwerów NTP Chrony System nazw domenowych Serwery główne Przepytywanie serwerów nazw Buforowanie systemu DNS Autorytatywne serwery DNS Dynamiczny system nazw domenowych Protokół dynamicznego konfigurowania komputerów Instalacja i konfiguracja Przydzielanie statycznej dzierżawy Dynamiczne aktualizacje DNS Ręczna zmiana wpisów DNS Bezpieczna powłoka Tworzenie i rozsyłanie kluczy Agent SSH Usprawnianie konfiguracji SSH Szybkie i bezpieczne przesyłanie plików Usługi internetowe i bazodanowe Serwer internetowy Apache Instalacja i konfiguracja Wydajność demona httpd Ograniczanie dostępu Moduły Uprawnienia plików i katalogów Baza danych SQL Instalacja Testowanie serwera Silniki bazy danych MariaDB Podstawowa konfiguracja silnika XtraDB Podstawy zarządzania serwerem MariaDB Zarządzanie treścią witryn internetowych Obecność w internecie Zabezpieczanie usług internetowych za pomocą certyfikatów SSL/TLS Tworzenie certyfikatów HTTPS za pomocą urzędu Let's Encrypt Inne aplikacje internetowe Zapisywanie stron w pamięci podręcznej Aplikacja Squid-Cache Usługi pocztowe Mechanizm działania poczty e-mail Co się dzieje w momencie wysłania wiadomości e-mail? Co się dzieje po wysłaniu wiadomości e-mail? Konfigurowanie serwera pocztowego Instalacja Uruchamianie serwera Postfix Informacje o konfiguracji serwera Postfix Konfiguracja początkowa Testowanie serwera Postfix Wybór formatu skrzynki pocztowej Dodatkowa konfiguracja serwera Postfix Szyfrowanie Uwierzytelnianie Tabele wyszukiwania Postfix i wirtualni użytkownicy Gdzie uzyskać pomoc (agent Postfix)? Walka z wirusami i spamem Zwalczanie spamu Antywirus Instalacja aplikacji ClamAV Konfigurowanie skanera ClamAV Co robić z zainfekowaną pocztą? Środowiska SPF i DKIM, kontrolowanie poczty e-mail Konfigurowanie protokołów IMAP i POP3 Protokół IMAP Protokół POP3 Jakie występują różnice? Wybór odpowiedniego protokołu Wprowadzenie do serwera Dovecot IMAP Wirtualne domeny i użytkownicy Alternatywne serwery pocztowe dla środowiska Linux Udostępnianie i drukowanie plików Udostępnianie plików za pomocą narzędzi Samba i NFS Samba Konfigurowanie kontrolera Samba AD Testowanie środowiska Samba Konfigurowanie udziałów Samba Dodawanie użytkowników do serwera Samba Wymagane reguły iptables dla środowiska Samba Montowanie udziałów Samba w dystrybucji Linux Montowanie udziałów w systemie Mac OS Zasoby Udziały NFS — udostępnianie danych pomiędzy środowiskami Linux Rozwiązywanie problemów z systemem NFS Zasoby Rozproszone sieciowe systemy plików GlusterFS Zarządzanie dokumentami Korzystanie z systemów zarządzania dokumentami Serwery drukowania Serwer CUPS Kopie zapasowe i odzyskiwanie danych Planowanie działań odtworzeniowych Proces sporządzania kopii zapasowych Kwestie do przemyślenia Sieciowe kopie zapasowe Stosowanie komendy rsync Komunikacja rsync poprzez protokół SSH Tworzenie kopii zapasowych za pomocą usługi Duply Konfigurowanie komór S3 Zasady użytkownika usługi AWS Testowanie dostępu do komory S3 Instalowanie i konfigurowanie aplikacji Duply Oprogramowanie Bareos Pobieranie oprogramowania Konfigurowanie bazy danych Konfigurowanie serwera Bareos Zarządzanie serwerem Bareos za pomocą narzędzia bconsole System GlusterFS jako magazyn kopii zapasowych Tworzenie kopii zapasowych baz danych za pomocą wtyczek serwera Bareos Wprowadzenie do interfejsu internetowego Bareos Wirtualne sieci prywatne Nasza przykładowa sieć Wprowadzenie do aplikacji OpenVPN Instalacja programu OpenVPN Uruchamianie i zatrzymywanie aplikacji OpenVPN Konfigurowanie usługi OpenVPN Udostępnianie zasobów głównego biura poprzez sieć OpenVPN Połączenia VPN dla użytkowników mobilnych Rozwiązywanie problemów z aplikacją OpenVPN Usługi katalogowe Czym jest protokół LDAP? Kwestie do przemyślenia Implementacja Instalacja Instalacja w dystrybucji CentOS Instalacja w dystrybucji Ubuntu Konfiguracja Wymagania Konfiguracja serwera SLAPD Tworzenie i dodawanie schematów oraz wyświetlanie ich listy Listy kontroli dostępu Praca z demonem slapd Konfigurowanie klienta LDAP Zarządzanie serwerem LDAP i dostępne narzędzia Pliki LDIF a dodawanie użytkowników Dodawanie użytkowników z plików LDIF Przeszukiwanie drzewa LDAP Usuwanie wpisów z katalogu LDAP Nakładka zasad przechowywania haseł Testowanie list kontroli dostępu Tworzenie kopii zapasowej katalogu LDAP Menedżer kont LDAP — przeglądarkowy panel administracyjny Instalacja i konfiguracja Dodawanie wirtualnego serwera Apache dla interfejsu LAM Integracja z innymi usługami Rejestracja jednokrotna: scentralizowane uwierzytelnianie w dystrybucji Linux Mechanizm działania modułów PAM Uwierzytelnianie serwera internetowego Apache za pomocą usługi LDAP Monitorowanie i optymalizacja wydajności Podstawowe metody sprawdzania stanu komputera Wykorzystanie procesora Wykorzystanie pamięci Przestrzeń dyskowa Dzienniki zdarzeń Zaawansowane narzędzia Wykorzystanie procesora i pamięci operacyjnej Wykorzystanie przestrzeni wymiany Dostęp do dysku Więcej danych przy użyciu polecenia dstat Ciągłe monitorowanie wydajności Collectd Graphite Grafana Optymalizacja wydajności Limity zasobów Polecenie sysctl i system plików proc Urządzenia pamięci masowej Poprawienie systemu plików Moduły szeregujące odczyt/zapis danych Dzienniki zdarzeń i monitorowanie Dzienniki zdarzeń Demon journald Demon rsyslogd Konfigurowanie narzędzi rsyslog Konfigurowanie protokołu RELP Uruchamianie i zatrzymywanie usługi rsyslog Testowanie dzienników zdarzeń za pomocą narzędzia logger Zarządzanie dziennikami zdarzeń i ich rotacja Analizowanie i korelowanie dzienników Wprowadzenie do aplikacji Beats i Logstash Magazynowanie dzienników za pomocą narzędzia Elasticsearch Instalacja i konfiguracja interfejsu Kibana Źródła informacji Monitorowanie Wprowadzenie do interfejsu Nagios-Core Instalacja serwera Nagios Uruchamianie usługi Nagios Konfigurowanie serwera Nagios Konfigurowanie konsoli Nagios Rozwiązywanie problemów z usługą Nagios Zarządzanie konfiguracją Dostarczanie Dostarczanie usług za pomocą narzędzia Cobbler w dystrybucji CentOS MAAS Zarządzanie konfiguracją Wprowadzenie do programu Puppet Instalacja aplikacji Puppet Konfigurowanie środowiska Puppet Pisanie manifestu Połączenie z pierwszym klientem Tworzenie naszej pierwszej konfiguracji Stosowanie naszej pierwszej konfiguracji Wyznaczanie konfiguracji dla wielu komputerów Tworzenie relacji pomiędzy zasobami Korzystanie z szablonów Dodatkowe informacje na temat środowiska Puppet Rozwiązywanie problemów z programem Puppet Wprowadzenie do aplikacji Ansible Testowanie za pomocą narzędzia ServerSpec
Sygnatura czytelni BWEAiI: XII S 33
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 145856 N (1 egz.)
Książka
W koszyku
Bibliografia na stronach [603]-616. Indeks.
Wydajne projektowanie Witaj w świecie szybkiego projektowania (27) Czym jest szybkie projektowanie? (27) Skuteczne wdrożenie szybkiego projektowania (28) Strategia szybkiego projektowania (31) Ogólna strategia szybkiego projektowania (34) Cztery wymiary szybkości projektowania (36) Ogólne rodzaje szybkiego projektowania (44) Który wymiar ma największe znaczenie? (46)Alternatywna strategia szybkiego projektowania (48) Klasyczne błędy (55) Przykład popełniania klasycznych błędów (55) Wpływ błędów na harmonogram projektowania (62) Lista klasycznych błędów (63) Ucieczka z "wyspy Gilligana" (73) Podstawy projektowania (77) Podstawy zarządzania (80) Podstawy techniczne (85) Podstawy kontroli jakości (93) Postępowanie zgodne z instrukcjami (101) Zarządzanie ryzykiem (103) Elementy zarządzania ryzykiem (105) Identyfikacja ryzyka (107) Analiza ryzyka (112) Priorytetyzacja ryzyka (115) Kontrola ryzyka (117) Ryzyko, wysokie ryzyko i "loteria" (122) Szybkie projektowanie Główne problemy dotyczące szybkiego projektowania (129) Czy jeden rozmiar może być uniwersalny? (129) Jaki rodzaj szybkiego projektowania jest Ci potrzebny? (131) Szanse na ukończenie projektu w terminie (136) Postrzeganie a rzeczywistość (138) Tam, dokąd płynie wolno czas (140) Kompromisy w strategii szybkiego projektowania (144) Typowy schemat usprawniania harmonogramu (146) Droga ku szybkiemu projektowaniu (148) Planowanie cyklu życia (151) Klasyczny model kaskadowy (153) Nieprzemyślane pisanie kodu (157) Model spiralny (158) Zmodyfikowane modele kaskadowe (160) Prototypowanie ewolucyjne (163) Wieloetapowe dostarczanie produktu (164) Wytwarzanie dopasowane do harmonogramu (165) Ewolucyjne dostarczanie produktu (167) Wytwarzanie dopasowane do narzędzi (168) Oprogramowanie komercyjne (169) Wybór najszybszego cyklu życia dla Twojego projektu (170) Szacowanie (179) Opowieść o szacowaniu (181) Zarys procesu szacowania (188) Szacowanie rozmiaru (189) Szacowanie wysiłku (196) Szacowanie harmonogramu (197) Orientacyjne szacowanie harmonogramu (199) Zawężanie oszacowań (210) Sporządzanie harmonogramu (219) Tworzenie zbyt optymistycznych harmonogramów (221) Harmonogram pod presją (233) Projektowanie zorientowane na klienta (245) Wpływ klienta na strategię szybkiego projektowania (248) Rozwiązania zorientowane na klienta (250) Zarządzanie oczekiwaniami klienta (254) Motywacja (259) Typowe motywacje projektanta (261) Stosowanie pięciu najważniejszych czynników motywujących (264) Korzystanie z pozostałych czynników motywujących (270) Czynniki niszczące morale (273) Praca zespołowa (281) Zastosowania pracy zespołowej w inżynierii oprogramowania (283) Znaczenie pracy zespołowej w strategii szybkiego projektowania (284) Utworzenie wydajnego zespołu (286) Dlaczego zespoły zawodzą? (295) Długoterminowe budowanie zespołu (298) Wskazówki dotyczące budowania zespołu (300) Struktura zespołu (303) Czynniki wpływające na strukturę zespołu (305) Modele zespołów (308) Kierownicy a liderzy techniczni (317) Regulowanie zestawu funkcji (323) Początek projektu: redukcja zestawu funkcji (325) Środek projektu: kontrola przerostu funkcjonalności (334) Koniec projektu: usuwanie funkcji (343) Narzędzia zwiększające produktywność (347) Rola narzędzi zwiększających produktywność w strategii szybkiego projektowania (349) Strategia wykorzystywania narzędzi zwiększających produktywność (353) Nabywanie narzędzi zwiększających produktywność (355) Stosowanie narzędzi zwiększających produktywność (359) Syndrom "srebrnej kuli" (364) Ratowanie projektu (371) Sposoby ratowania projektu (373) Plan ratowania projektu (375) Sprawdzone rozwiązania (389) Komisja zatwierdzająca zmiany (403) Codzienne kompilacje i testy dymowe (405) Stosowanie codziennych kompilacji i testów dymowych (407) Zarządzanie ryzykiem w procesie codziennych kompilacji i testów dymowych (412) Skutki uboczne korzystania z codziennych kompilacji i testów dymowych (412) Oddziaływanie codziennych kompilacji i testów dymowych z innymi metodami (413) Czynniki decydujące o skutecznym stosowaniu codziennych kompilacji i testów dymowych (414) Przygotowanie architektury nastawione na zmianę (415) Stosowanie opisywanej metody (416) Zarządzanie ryzykiem podczas przygotowywania architektury nastawionego na zmianę (421) Skutki uboczne przygotowania architektury nastawionego na zmianę (422) Oddziaływanie przygotowania architektury nastawionego na zmianę z innymi metodami (422) Czynniki decydujące o skutecznym stosowaniu przygotowania architektury nastawionego na zmianę (423) Ewolucyjne dostarczanie produktu (425) Stosowanie ewolucyjnego dostarczania produktu (427) Zarządzanie ryzykiem w modelu ewolucyjnego dostarczania produktu (429) Skutki uboczne ewolucyjnego dostarczania produktu (430) Oddziaływanie ewolucyjnego dostarczania produktu z innymi metodami (431) Czynniki decydujące o skutecznym stosowaniu ewolucyjnego dostarczania produktu (432) Prototypowanie ewolucyjne (433) Stosowanie prototypowania ewolucyjnego (434)Zarządzanie ryzykiem w prototypowaniu ewolucyjnym (435) Skutki uboczne prototypowania ewolucyjnego (440) Oddziaływanie prototypowania ewolucyjnego z innymi metodami (440) Czynniki decydujące o skutecznym stosowaniu prototypowania ewolucyjnego (441) Ustanawianie celu (443) Inspekcje (445) Sesje JAD (447) Stosowanie metodologii JAD (448) Zarządzanie ryzykiem w metodologii JAD (456) Skutki uboczne stosowania sesji JAD (457) Oddziaływania metodologii JAD z innymi rozwiązaniami (458) Czynniki decydujące o skutecznym stosowaniu metodologii JAD (459) Wybór modelu cyklu życia (461) Pomiary (463) Stosowanie pomiarów (464) Zarządzanie ryzykiem w pomiarach (471) Skutki uboczne stosowania pomiarów (473) Oddziaływanie pomiarów z innymi metodami (473) Czynniki decydujące o skutecznym stosowaniu pomiarów (474) Rozbijanie celów na podetapy (477) Stosowanie metody rozbijania celów na podetapy (480) Zarządzanie ryzykiem podczas rozbijania celów na podetapy (483) Skutki uboczne rozbijania celów na podetapy (483) Oddziaływanie rozbijania celów na podetapy z innymi metodami (483) Czynniki decydujące o skutecznym rozbijaniu celów na podetapy (485) Zewnętrzni podwykonawcy (487) Wykorzystywanie zewnętrznych podwykonawców (489) Zarządzanie ryzykiem związanym z zewnętrznymi podwykonawcami (495) Skutki uboczne zatrudniania zewnętrznych podwykonawców (496)Zatrudnianie zewnętrznych podwykonawców a inne metody (496)Czynniki decydujące o skuteczności omawianej metody (497) Negocjacje zgodne z zasadami (499) Środowisko pracy (501) Zastosowania produktywnego środowiska pracy (503) Zarządzanie ryzykiem w produktywnym środowisku pracy (505) Skutki uboczne wprowadzenia produktywnego środowiska pracy (506) Oddziaływania środowiska pracy z innymi metodami (507) Czynniki decydujące o skutecznym wdrożeniu produktywnego środowiska pracy (508) Języki szybkiego projektowania (RDL) (509) Stosowanie języków RDL (513) Zarządzanie ryzykiem podczas stosowania języków RDL (513) Skutki uboczne stosowania języków RDL (515) Oddziaływanie języków RDL z innymi rozwiązaniami (515) Czynniki decydujące o skutecznym stosowaniu języków RDL (516) Przesiewanie wymagań (519) Wielokrotne wykorzystywanie zasobów (521) Stosowanie wielokrotnego wykorzystywania zasobów (522) Zarządzanie ryzykiem podczas wielokrotnego wykorzystywania zasobów (529) Skutki uboczne wielokrotnego wykorzystywania zasobów (530) Oddziaływanie wielokrotnego wykorzystywania zasobów z innymi metodami (530) Czynniki decydujące o skutecznym, wielokrotnym wykorzystywaniu zasobów (531) Wspólny cel (533) Stosowanie wspólnego celu (534) Zarządzanie ryzykiem podczas ustanawiania wspólnego celu (536) Skutki uboczne wspólnego celu (538) Oddziaływanie wspólnego celu z innymi metodami (538) Czynniki decydujące o sukcesie wspólnego celu (539) Spiralny model cyklu życia (541) Wieloetapowe dostarczanie produktu (543) Stosowanie wieloetapowego dostarczania produktu (546) Zarządzanie ryzykiem w wieloetapowym dostarczaniu produktu (549) Skutki uboczne wieloetapowego dostarczania produktu (550) Oddziaływanie wieloetapowego dostarczania produktu z innymi metodami (550) Czynniki decydujące o skutecznym korzystaniu z wieloetapowego dostarczania produktu (552) Zarządzanie zgodne z teorią W (553) Stosowanie zarządzania zgodnego z teorią W (555) Zarządzanie ryzykiem w teorii W (560) Skutki uboczne zarządzania zgodnego z teorią W (561) Oddziaływanie teorii W z innymi metodami (561) Czynniki decydujące o właściwym zarządzaniu zgodnym z teorią W (562) Prototypowanie z odrzuceniem (563) Stosowanie prototypowania z odrzuceniem (564) Zarządzanie ryzykiem w prototypowaniu z odrzuceniem (565) Skutki uboczne stosowania prototypowania z odrzuceniem (566) Oddziaływanie prototypowania z odrzuceniem z innymi metodami (566) Czynniki decydujące o skutecznym stosowaniu prototypowania z odrzuceniem (567) Projektowanie metodą okienek czasowych (569) Stosowanie projektowania metodą okienek czasowych (571) Zarządzanie ryzykiem w projektowaniu metodą okienek czasowych (574) Skutki uboczne stosowania metody okienek czasowych (575) Oddziaływanie projektowania metodą okienek czasowych z innymi rozwiązaniami (575) Czynniki decydujące o skutecznym projektowaniu metodą okienek czasowych (576) Zespół narzędziowy (579) Lista 10 największych zagrożeń (581) Prototypowanie interfejsu użytkownika (583) Stosowanie prototypowania interfejsu użytkownika (585) Zarządzanie ryzykiem w prototypowaniu interfejsu użytkownika (588) Skutki uboczne prototypowania interfejsu użytkownika (589) Oddziaływanie prototypowania interfejsu użytkownika z innymi rozwiązaniami (590) Czynniki decydujące o skutecznym prototypowaniu interfejsu użytkownika (590) Dobrowolna praca w nadgodzinach (593) Stosowanie pracy w dobrowolnych nadgodzinach (594) Zarządzanie ryzykiem przy dobrowolnej pracy w nadgodzinach (599) Skutki uboczne dobrowolnej pracy w nadgodzinach (600) Oddziaływanie dobrowolnej pracy w nadgodzinach z innymi rozwiązaniami (600) Czynniki decydujące o skutecznym wdrożeniu dobrowolnej pracy w nadgodzinach (601)
Sygnatura czytelni BWEAiI: XII J 69
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 144844 (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 144419 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Web scraping with Python : collecting data from the modern web.
Podtytuł według okładki.
Wydanie 2. odnosi się do oryginału.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Na książce także ISBN oryginału: 9781491985571.
Indeks.
Część I. Tworzenie pełzaczy 1.Twój pierwszy robot indeksujący Połączenie Wprowadzenie do biblioteki BeautifulSoup Instalacja biblioteki BeautifulSoup Korzystanie z biblioteki BeautifulSoup Stabilne połączenia i obsługa wyjątków 2.Zaawansowana analiza składniowa HTML Młotek nie zawsze jest potrzebny Kolejna porcja BeautifulSoup Funkcje find() i find_all() Inne obiekty biblioteki BeautifulSoup Poruszanie się po drzewach hierarchii Wyrażenia regularne Wyrażenia regularne w bibliotece BeautifulSoup Uzyskiwanie dostępu do atrybutów Wyrażenia lambda 3.Tworzenie robotów indeksujących Poruszanie się po pojedynczej domenie Pełzanie po całej witrynie Gromadzenie danych z całej witryny Pełzanie po internecie 4.Modele ekstrakcji danych Planowanie i definiowanie obiektów Obsługa różnych szat graficznych Konstruowanie robotów indeksujących Poruszanie się po witrynach za pomocą paska wyszukiwania Poruszanie się po witrynach za pomocą odnośników Poruszanie się pomiędzy różnymi typami stron Właściwe podejście do procesu tworzenia modeli robotów indeksujących 5.Scrapy Instalacja biblioteki Scrapy Inicjowanie nowego pająka Pisanie prostego robota indeksującego Korzystanie z pająków przy użyciu reguł Tworzenie elementów Wyświetlanie elementów Potoki elementów Dzienniki zdarzeń w bibliotece Scrapy Dodatkowe zasoby 6.Przechowywanie danych Pliki multimedialne Przechowywanie danych w plikach CSV MySQL Instalacja środowiska MySQL Podstawowe polecenia Integracja ze środowiskiem Python Techniki bazodanowe i dobre rozwiązania Sześć stopni oddalenia w środowisku MySQL Alerty e-mail Część II. Zaawansowana ekstrakcja danych 7. Odczytywanie dokumentów Kodowanie dokumentu Pliki tekstowe Kodowanie tekstu a internet globalny Format CSV Odczyt plików CSV Format PDF Edytor Microsoft Word i pliki .docx 8.Oczyszczanie danych Oczyszczanie na poziomie kodu Normalizacja danych Oczyszczanie pozyskanych danych OpenRefine 9.Odczyt i zapis języków naturalnych Podsumowywanie danych Modele Markowa Sześć stopni oddalenia od Wikipedii — podsumowanie Natural Language Toolkit Instalacja i konfiguracja Analiza statystyczna za pomocą pakietu NLTK Analiza leksykologiczna za pomocą pakietu NLTK Dodatkowe zasoby 10.Kwestia formularzy i pól logowania Biblioteka Reąuests Przesyłanie podstawowego formularza Przyciski opcji, pola zaznaczania i inne mechanizmy wprowadzania danych Wysyłanie plików i obrazów Pola logowania i ciasteczka Podstawowe uwierzytelnianie protokołu HTTP Inne problemy z formularzami 11.Ekstrakcja danych a język JavaScript Krótkie wprowadzenie do języka JavaScript Popularne biblioteki JavaScriptu Ajax i dynamiczny HTML Uruchamianie kodu JavaScriptu w środowisku Python za pomocą biblioteki Selenium Dodatkowe obiekty WebDriver Obsługa przekierowań Końcowe uwagi na temat języka JavaScript 12.Ekstrakcja danych poprzez API Krótkie wprowadzenie do API Metody HTTP a API Dodatkowe informacje na temat odpowiedzi API Analizowanie składni formatu JSON Nieudokumentowane API Wyszukiwanie nieudokumentowanych API Dokumentowanie nieudokumentowanych API Automatyczne wyszukiwanie i dokumentowanie API Łączenie API z innymi źródłami danych Dodatkowe informacje na temat API 13.Przetwarzanie obrazów i rozpoznawanie tekstu Przegląd bibliotek Pillow Tesseract NumPy Przetwarzanie prawidłowo sformatowanego tekstu Automatyczne korygowanie obrazów Ekstrakcja danych z obrazów umieszczonych w witrynach Odczytywanie znaków CAPTCHA i uczenie aplikacji Tesseract Uczenie aplikacji Tesseract Ekstrakcja kodów CAPTCHA i przesyłanie odpowiedzi 14.Unikanie pułapek na boty Kwestia etyki Udawanie człowieka Dostosuj nagłówki Obsługa ciastek za pomocą języka JavaScript Wyczucie czasu to podstawa Popularne zabezpieczenia formularzy Wartości ukrytych pól wejściowych Unikanie wabików Być człowiekiem 15.Testowanie witryn internetowych za pomocą robotów indeksujących Wprowadzenie do testowania Czym są testy jednostkowe? Moduł unittest Testowanie Wikipedii Testowanie za pomocą biblioteki Selenium Interakcje z witryną Selenium czy unittest? 16.Zrównoleglanie procesu ekstrakcji danych Procesy i wątki Wielowątkowa ekstrakcja danych Wyścigi i kolejki Moduł threading Wieloprocesowa ekstrakcja danych Przykład z Wikipedią Komunikacja międzyprocesowa Wieloprocesowa ekstrakcja danych — metoda alternatywna 17.Zdalna ekstrakcja danych z internetu Powody korzystania z serwerów zdalnych Unikanie blokowania adresu IP Przenośność i rozszerzalność Tor PySocks Hosting zdalny Uruchamianie z poziomu serwisu hostingowego Uruchamianie z poziomu chmury Dodatkowe zasoby 18.Legalność i etyka ekstrakcji danych z internetu Znaki towarowe, prawa autorskie, patenty, ojej! 251 Prawo autorskie Naruszenie prawa własności rzeczy ruchomych Ustawa o oszustwach i nadużyciach komputerowych Plik robots.txt i warunki świadczenia usług Trzy roboty indeksujące Sprawa eBay przeciwko Bidder's Edge (prawo własności rzeczy ruchomych) Sprawa Stany Zjednoczone przeciwko Auernheimerowi (ustawa CFAA) Sprawa Field przeciwko Google (prawo autorskie i plik robots.txt)
Sygnatura czytelni BWEAiI: XII Ł 155
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148499 N (1 egz.)
Książka
W koszyku
(Księga Eksperta)
Na s. tyt. i okł.: Kompendium wiedzy na temat systemu Windows Server 2008 PL. Jak wdrożyć system Windows Server 2008? Jak konfigurować usługi sieciowe? Jak monitorować wydajność systemu Windows Server?
Indeks.
Sygnatura czytelni BWEAiI: XII P 49
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 135430 N (1 egz.)
Książka
W koszyku
Na grzb.: Makermedia.
Indeks.
Streszczenie: Pokazuje jak urządzić własne laboratorium badawcze, jak zaprojektować i zbudować przyrządy pomiarowe i sprzęt laboratoryjny, aby za ich pomocą poznawać fascynujące prawa przyrody.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 143180 N (1 egz.)
Książka
W koszyku
Kod : ukryty język komputerów / Charles Petzold ; tłumaczenie Krzysztof Sawka - Gliwice : Helion, copyright 2021. - 384 strony : ilustracje ; 24 cm.
Rozdział 1. Najlepsi kumple (1) Rozdział 2. Kody i kombinacje (7) Rozdział 3. Kod Braille'a a kod binarny (13) Rozdział 4. Anatomia latarki (20) Rozdział 5. Tam sięgaj, gdzie wzrok nie sięga (30) Rozdział 6. Telegrafy i przekaźniki (38) Rozdział 7. Naszych dziesięć cyfr (45) Rozdział 8. Jeśli nie system dziesiętny, to co? (52) Rozdział 9. Bit bita bitem pogania (67) Rozdział 10. Logika i przełączniki (84) Rozdział 11. Bramki (100) Rozdział 12. Binarna maszyna sumująca (129) Rozdział 13. A co z odejmowaniem? (142) Rozdział 14. Sprzężenie zwrotne i przerzutniki (154) Rozdział 15. Bajty i system szesnastkowy (179) Rozdział 16. Czas sklecić pamięć (189) Rozdział 17. Automatyzacja (205) Rozdział 18. Od liczydła do scalaka (242) Rozdział 19. Dwa klasyczne mikroprocesory (264) Rozdział 20. Kod ASCII i galeria znaków (290) Rozdział 21. Magistrala komunikacyjna (305) Rozdział 22. System operacyjny (324) Rozdział 23. Liczby stało- i zmiennoprzecinkowe (339) Rozdział 24. Języki wysokiego i niskiego poziomu (352) Rozdział 25. Rewolucja graficzna (366)
Sygnatura czytelni BWEAiI: XII Ś 29
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 151104 N (1 egz.)
Książka
W koszyku
Kod : ukryty język komputerów / Charles Petzold ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2023. - IX, [1], 425, [1] strona : ilustracje, portrety ; 24 cm.
Wydanie 2. odnosi się do oryginału. Na stronie 4. okładki: Microsoft Press.
Kody i kombinacje Kod Braillea a kod binarny Logika przełączników Telegrafy i przekaźniki Przekaźniki i bramki Alternatywne dziesiątki Bajty i system szesnastkowy Od systemu ASCII do Unicode Dodawanie za pomocą bramek logicznych Sprzężenie zwrotne i przerzutniki Automatyzacja obliczeń arytmetycznych Jednostka arytmetyczno-logiczna Rej estry i magistrale Sygnały sterujące procesora
Sygnatura czytelni BWEAiI: XII E 128
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154679 N (1 egz.)
Książka
W koszyku
Python : uczenie maszynowe / Sebastian Raschka ; [tłumaczenie: Krzysztof Sawka]. - Gliwice : Wydawnictwo Helion, copyright 2018. - 413 stron : ilustracje, wykresy ; 23 cm.
(Technologia i Rozwiązania)
Na okładce i stronie tytułowej wydawca angielskiej wersji: Packt Publishing.
Indeks.
Umożliwianie komputerom uczenia się z danych Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę Trzy różne rodzaje uczenia maszynowego Prognozowanie przyszłości za pomocą uczenia nadzorowanego Rozwiązywanie problemów interaktywnych za pomocą uczenia przez wzmacnianie Odkrywanie ukrytych struktur za pomocą uczenia nienadzorowanego Wprowadzenie do podstawowej terminologii i notacji Strategia tworzenia systemów uczenia maszynowego Wstępne przetwarzanie - nadawanie danym formy Trenowanie i dobór modelu predykcyjnego Ewaluacja modeli i przewidywanie wystąpienia nieznanych danych Wykorzystywanie środowiska Python do uczenia maszynowego Instalacja pakietów w Pythonie Trenowanie algorytmów uczenia maszynowego w celach klasyfikacji Sztuczne neurony - rys historyczny początków uczenia maszynowego Implementacja algorytmu uczenia perceptronu w Pythonie Trenowanie modelu perceptronu na zestawie danych Iris Adaptacyjne neurony liniowe i zbieżność uczenia Minimalizacja funkcji kosztu za pomocą metody gradientu prostego Implementacja adaptacyjnego neuronu liniowego w Pythonie Wielkoskalowe uczenie maszynowe i metoda stochastycznego spadku wzdłuż gradientu Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn Wybór algorytmu klasyfikującego Pierwsze kroki z biblioteką scikit-learn Uczenie perceptronu za pomocą biblioteki scikit-learn Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej Teoretyczne podłoże regresji logistycznej i prawdopodobieństwa warunkowego Wyznaczanie wag logistycznej funkcji kosztu Uczenie modelu regresji logistycznej za pomocą biblioteki scikit-learn Zapobieganie nadmiernemu dopasowaniu za pomocą regularyzacji Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych Teoretyczne podłoże maksymalnego marginesu Rozwiązywanie przypadków nieliniowo rozdzielnych za pomocą zmiennych uzupełniających Alternatywne implementacje w interfejsie scikit-learn Rozwiązywanie nieliniowych problemów za pomocą jądra SVM Stosowanie sztuczki z funkcją jądra do znajdowania przestrzeni rozdzielających w przestrzeni o większej liczbie wymiarów Uczenie drzew decyzyjnych Maksymalizowanie przyrostu informacji - osiąganie jak największych korzyści Budowanie drzewa decyzyjnego Łączenie słabych klasyfikatorów w silne klasyfikatory za pomocą modelu losowego lasu Algorytm k-najbliższych sąsiadów - model leniwego uczenia Tworzenie dobrych zbiorów uczących - wstępne przetwarzanie danych Kwestia brakujących danych Usuwanie próbek lub cech niezawierających wartości Wstawianie brakujących danych Estymatory interfejsu scikit-learn Przetwarzanie danych kategoryzujących Mapowanie cech porządkowych Kodowanie etykiet klas Kodowanie "gorącojedynkowe" cech nominalnych (z użyciem wektorów własnych) Rozdzielanie zestawu danych na podzbiory uczące i testowe Skalowanie cech Dobór odpowiednich cech Regularyzacja L1 Algorytmy sekwencyjnego wyboru cech Ocenianie istotności cech za pomocą algorytmu losowego lasu Kompresja danych poprzez redukcję wymiarowości Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych Wyjaśniona wariancja całkowita Transformacja cech Analiza głównych składowych w interfejsie scikit-learn Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej Obliczanie macierzy rozproszenia Dobór dyskryminant liniowych dla nowej podprzestrzeni cech Rzutowanie próbek na nową przestrzeń cech Implementacja analizy LDA w bibliotece scikit-learn Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas Funkcje jądra oraz sztuczka z funkcją jądra Implementacja jądrowej analizy głównych składowych w Pythonie Rzutowanie nowych punktów danych Algorytm jądrowej analizy głównych składowych w bibliotece scikit-learn Najlepsze metody oceny modelu i strojenie parametryczne Usprawnianie cyklu pracy za pomocą kolejkowania Wczytanie zestawu danych Breast Cancer Wisconsin Łączenie funkcji transformujących i estymatorów w kolejce czynności Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu Metoda wydzielania K-krotny sprawdzian krzyżowy Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji Diagnozowanie problemów z obciążeniem i wariancją za pomocą krzywych uczenia Rozwiązywanie problemów nadmiernego i niewystarczającego dopasowania za pomocą krzywych walidacji Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki Strojenie hiperparametrów przy użyciu metody przeszukiwania siatki Dobór algorytmu poprzez zagnieżdżony sprawdzian krzyżowy Przegląd metryk oceny skuteczności Odczytywanie macierzy pomyłek Optymalizacja precyzji i pełności modelu klasyfikującego Wykres krzywej ROC Metryki zliczające dla klasyfikacji wieloklasowej Łączenie różnych modeli w celu uczenia zespołowego Uczenie zespołów Implementacja prostego klasyfikatora wykorzystującego głosowanie większościowe Łączenie różnych algorytmów w celu klasyfikacji za pomocą głosowania większościowego Ewaluacja i strojenie klasyfikatora zespołowego Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego Wykorzystywanie uczenia maszynowego w analizie sentymentów Zestaw danych IMDb movie review Wprowadzenie do modelu worka słów Przekształcanie słów w wektory cech Ocena istotności wyrazów za pomocą ważenia częstości termów - odwrotnej częstości w tekście Oczyszczanie danych tekstowych Przetwarzanie tekstu na znaczniki Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej Serializacja wyuczonych estymatorów biblioteki scikit-learn Konfigurowanie bazy danych SQLite Tworzenie aplikacji sieciowej za pomocą środowiska Flask Nasza pierwsza aplikacja sieciowa Sprawdzanie i wyświetlanie formularza Przekształcanie klasyfikatora recenzji w aplikację sieciową Umieszczanie aplikacji sieciowej na publicznym serwerze Aktualizowanie klasyfikatora recenzji filmowych Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej Wprowadzenie do prostego modelu regresji liniowej Zestaw danych Housing Wizualizowanie ważnych elementów zestawu danych Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów Określanie parametrów regresywnych za pomocą metody gradientu prostego Szacowanie współczynnika modelu regresji za pomocą biblioteki scikit-learn Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC Ocenianie skuteczności modeli regresji liniowej Stosowanie regularyzowanych metod regresji Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa Modelowanie nieliniowych zależności w zestawie danych Housing Analiza nieliniowych relacji za pomocą algorytmu losowego lasu Praca z nieoznakowanymi danymi - analiza skupień Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów Algorytm k-means++ Klasteryzacja twarda i miękka Stosowanie metody łokcia do wyszukiwania optymalnej liczby skupień Ujęcie ilościowe jakości klasteryzacji za pomocą wykresu profilu Organizowanie skupień do postaci drzewa klastrów Przeprowadzanie hierarchicznej analizy skupień na macierzy odległości Dołączanie dendrogramów do mapy cieplnej Aglomeracyjna analiza skupień w bibliotece scikit-learn Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN Trenowanie sztucznych sieci neuronowych w rozpoznawaniu obrazu Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych Jednowarstwowa sieć neuronowa - powtórzenie Wstęp do wielowarstwowej architektury sieci neuronowych Aktywacja sieci neuronowej za pomocą propagacji w przód Klasyfikowanie pisma odręcznego Zestaw danych MNIST Implementacja wielowarstwowego perceptronu Trenowanie sztucznej sieci neuronowej Obliczanie logistycznej funkcji kosztu Uczenie sieci neuronowych za pomocą algorytmu wstecznej propagacji Ujęcie intuicyjne algorytmu wstecznej propagacji Usuwanie błędów w sieciach neuronowych za pomocą sprawdzania gradientów Zbieżność w sieciach neuronowych Inne architektury sieci neuronowych Splotowe sieci neuronowe Rekurencyjne sieci neuronowe Jeszcze słowo o implementacji sieci neuronowej Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki Theano Tworzenie, kompilowanie i uruchamianie wyrażeń w interfejsie Theano Czym jest Theano? Pierwsze kroki z Theano Konfigurowanie środowiska Theano Praca ze strukturami tablicowymi Przejdźmy do konkretów - implementacja regresji liniowej w Theano Dobór funkcji aktywacji dla jednokierunkowych sieci neuronowych Funkcja logistyczna - powtórzenie Szacowanie prawdopodobieństw w klasyfikacji wieloklasowej za pomocą znormalizowanej funkcji wykładniczej Rozszerzanie zakresu wartości wyjściowych za pomocą funkcji tangensa hiperbolicznego Skuteczne uczenie sieci neuronowych za pomocą biblioteki Keras
Sygnatura czytelni BWEAiI: XII Ł 88
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 145176 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Python machine learning : machine learning and deep learning with Pyton, scikit-learn and TensorFlow.
Wydanie 2. odnosi się do oryginału.
Na książce także ISBN oryginału.
Indeks.
Rozdział 1. Umożliwianie komputerom uczenia się z danych 23 Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę 24 Trzy różne rodzaje uczenia maszynowego 24 Prognozowanie przyszłości za pomocą uczenia nadzorowanego 25 Rozwiązywanie problemów interaktywnych za pomocą uczenia przez wzmacnianie 28 Odkrywanie ukrytych struktur za pomocą uczenia nienadzorowanego 29 Wprowadzenie do podstawowej terminologii i notacji 30 Strategia tworzenia systemów uczenia maszynowego 32 Wstępne przetwarzanie - nadawanie danym formy 32 Trenowanie i dobór modelu predykcyjnego 34 Ewaluacja modeli i przewidywanie wystąpienia nieznanych danych 34 Wykorzystywanie środowiska Python do uczenia maszynowego 35 Instalacja środowiska Python i pakietów z repozytorium Python Package Index 35 Korzystanie z platformy Anaconda i menedżera pakietów 36 Pakiety przeznaczone do obliczeń naukowych, analizy danych i uczenia maszynowego 36 Rozdział 2. Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji 39 Sztuczne neurony - rys historyczny początków uczenia maszynowego 40 Formalna definicja sztucznego neuronu 41 Reguła uczenia perceptronu 43 Implementacja algorytmu uczenia perceptronu w Pythonie 45 Obiektowy interfejs API perceptronu 45 Trenowanie modelu perceptronu na zestawie danych Iris 48 Adaptacyjne neurony liniowe i zbieżność uczenia 53 Minimalizacja funkcji kosztu za pomocą metody gradientu prostego 55 Implementacja algorytmu Adaline w Pythonie 56 Usprawnianie gradientu prostego poprzez skalowanie cech 60 Wielkoskalowe uczenie maszynowe i metoda stochastycznego spadku wzdłuż gradientu 62 Rozdział 3. Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn 67 Wybór algorytmu klasyfikującego 68 Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu 68 Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej 74 Teoretyczne podłoże regresji logistycznej i prawdopodobieństwa warunkowego 74 Wyznaczanie wag logistycznej funkcji kosztu 78 Przekształcanie implementacji Adaline do postaci algorytmu regresji logistycznej 80 Uczenie modelu regresji logistycznej za pomocą biblioteki scikit-learn 84 Zapobieganie przetrenowaniu za pomocą regularyzacji 86 Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych 88 Teoretyczne podłoże maksymalnego marginesu 89 Rozwiązywanie przypadków nieliniowo rozdzielnych za pomocą zmiennych uzupełniających 90 Alternatywne implementacje w interfejsie scikit-learn 92 Rozwiązywanie nieliniowych problemów za pomocą jądra SVM 93 Metody jądrowe dla danych nierozdzielnych liniowo 93 Stosowanie sztuczki z funkcją jądra do znajdowania przestrzeni rozdzielających w przestrzeni wielowymiarowej 95 Uczenie drzew decyzyjnych 99 Maksymalizowanie przyrostu informacji - osiąganie jak największych korzyści 100 Budowanie drzewa decyzyjnego 103 Łączenie wielu drzew decyzyjnych za pomocą modelu losowego lasu 107 Algorytm k-najbliższych sąsiadów - model leniwego uczenia 109 Rozdział 4. Tworzenie dobrych zbiorów uczących - wstępne przetwarzanie danych 115 Kwestia brakujących danych 115 Wykrywanie brakujących wartości w danych tabelarycznych 116 Usuwanie próbek lub cech niezawierających wartości 117 Wstawianie brakujących danych 118 Estymatory interfejsu scikit-learn 119 Przetwarzanie danych kategoryzujących 119 Cechy nominalne i porządkowe 120 Tworzenie przykładowego zestawu danych 120 Mapowanie cech porządkowych 121 Kodowanie etykiet klas 121 Kodowanie "gorącojedynkowe" cech nominalnych (z użyciem wektorów własnych) 122 Rozdzielanie zestawu danych na oddzielne podzbiory uczące i testowe 124 Skalowanie cech 127 Dobór odpowiednich cech 129 Regularyzacje L1 i L2 jako kary ograniczające złożoność modelu 129 Interpretacja geometryczna regularyzacji L2 130 Rozwiązania rzadkie za pomocą regularyzacji L1 131 Algorytmy sekwencyjnego wyboru cech 135 Ocenianie istotności cech za pomocą algorytmu losowego lasu 140 Rozdział 5. Kompresja danych poprzez redukcję wymiarowości 143 Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych 144 Podstawowe etapy analizy głównych składowych 144 Wydobywanie głównych składowych krok po kroku 146 Wyjaśniona wariancja całkowita 148 Transformacja cech 149 Analiza głównych składowych w interfejsie scikit-learn 152 Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej 154 Porównanie analizy głównych składowych z liniową analizą dyskryminacyjną 155 Wewnętrzne mechanizmy działania liniowej analizy dyskryminacyjnej 156 Obliczanie macierzy rozproszenia 157 Dobór dyskryminant liniowych dla nowej podprzestrzeni cech 159 Rzutowanie próbek na nową przestrzeń cech 161 Implementacja analizy LDA w bibliotece scikit-learn 161 Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas 163 Funkcje jądra oraz sztuczka z funkcją jądra 164 Implementacja jądrowej analizy głównych składowych w Pythonie 168 Rzutowanie nowych punktów danych 175 Algorytm jądrowej analizy głównych składowych w bibliotece scikit-learn 178 Rozdział 6. Najlepsze metody oceny modelu i strojenie parametryczne 181 Usprawnianie cyklu pracy za pomocą kolejkowania 181 Wczytanie zestawu danych Breast Cancer Wisconsin 182 Łączenie funkcji transformujących i estymatorów w kolejce czynności 183 Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu 184 Metoda wydzielania 185 K-krotny sprawdzian krzyżowy 186 Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji 190 Diagnozowanie problemów z obciążeniem i wariancją za pomocą krzywych uczenia 190 Rozwiązywanie problemów przetrenowania i niedotrenowania za pomocą krzywych walidacji 193 Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki 195 Strojenie hiperparametrów przy użyciu metody przeszukiwania siatki 195 Dobór algorytmu poprzez zagnieżdżony sprawdzian krzyżowy 196 Przegląd metryk oceny skuteczności 198 Odczytywanie macierzy pomyłek 198 Optymalizacja precyzji i pełności modelu klasyfikującego 200 Wykres krzywej ROC 202 Metryki zliczające dla klasyfikacji wieloklasowej 204 Kwestia dysproporcji klas 205 Rozdział 7. Łączenie różnych modeli w celu uczenia zespołowego 209 Uczenie zespołów 209 Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego 213 Implementacja prostego klasyfikatora głosowania większościowego 214 Stosowanie reguły głosowania większościowego do uzyskiwania prognoz 219 Ewaluacja i strojenie klasyfikatora zespołowego 221 Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych 226 Agregacja w pigułce 227 Stosowanie agregacji do klasyfikowania przykładów z zestawu Wine 228 Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego 231 Wzmacnianie - mechanizm działania 232 Stosowanie algorytmu AdaBoost za pomocą biblioteki scikit-learn 236 Rozdział 8. Wykorzystywanie uczenia maszynowego w analizie sentymentów 241 Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu 242 Uzyskiwanie zestawu danych IMDb 242 Przetwarzanie wstępne zestawu danych IMDb do wygodniejszego formatu 243 Wprowadzenie do modelu worka słów 244 Przekształcanie słów w wektory cech 245 Ocena istotności wyrazów za pomocą ważenia częstości termów - odwrotnej częstości w tekście 246 Oczyszczanie danych tekstowych 248 Przetwarzanie tekstu na znaczniki 249 Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu 251 Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe 253 Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta 256 Rozkładanie dokumentów tekstowych za pomocą analizy LDA 257 Analiza LDA w bibliotece scikit-learn 258 Rozdział 9. Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej 263 Serializacja wyuczonych estymatorów biblioteki scikit-learn 264 Konfigurowanie bazy danych SQLite 266 Tworzenie aplikacji sieciowej za pomocą środowiska Flask 269 Nasza pierwsza aplikacja sieciowa 269 Sprawdzanie i wyświetlanie formularza 271 Przekształcanie klasyfikatora recenzji w aplikację sieciową 275 Pliki i katalogi - wygląd drzewa katalogów 277 Implementacja głównej części programu w pliku app.py 277 Konfigurowanie formularza recenzji 280 Tworzenie szablonu strony wynikowej 281 Umieszczanie aplikacji sieciowej na publicznym serwerze 282 Tworzenie konta w serwisie PythonAnywhere 283 Przesyłanie aplikacji klasyfikatora filmowego 283 Aktualizowanie klasyfikatora recenzji filmowych 284 Rozdział 10. Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej 287 Wprowadzenie do regresji liniowej 288 Prosta regresja liniowa 288 Wielowymiarowa regresja liniowa 288 Zestaw danych Housing 290 Wczytywanie zestawu danych Housing do obiektu DataFrame 290 Wizualizowanie ważnych elementów zestawu danych 292 Analiza związków za pomocą macierzy korelacji 293 Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów 296 Określanie parametrów regresywnych za pomocą metody gradientu prostego 296 Szacowanie współczynnika modelu regresji za pomocą biblioteki scikit-learn 300 Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC 301 Ocenianie skuteczności modeli regresji liniowej 304 Stosowanie regularyzowanych metod regresji 307 Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa 308 Dodawanie członów wielomianowych za pomocą biblioteki scikit-learn 309 Modelowanie nieliniowych zależności w zestawie danych Housing 310 Analiza nieliniowych relacji za pomocą algorytmu losowego lasu 314 Rozdział 11. Praca z nieoznakowanymi danymi - analiza skupień 319 Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów 320 Algorytm centroidów w bibliotece scikit-learn 320 Inteligentniejszy sposób dobierania pierwotnych centroidów za pomocą algorytmu k-means++ 324 Klasteryzacja twarda i miękka 325 Stosowanie metody łokcia do wyszukiwania optymalnej liczby skupień 327 Ujęcie ilościowe jakości klasteryzacji za pomocą wykresu profilu 328 Organizowanie skupień do postaci drzewa klastrów 333 Oddolne grupowanie skupień 333 Przeprowadzanie hierarchicznej analizy skupień na macierzy odległości 335 Dołączanie dendrogramów do mapy cieplnej 338 Aglomeracyjna analiza skupień w bibliotece scikit-learn 339 Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN 340 Rozdział 12. Implementowanie wielowarstwowej sieci neuronowej od podstaw 347 Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych 348 Jednowarstwowa sieć neuronowa - powtórzenie 349 Wstęp do wielowarstwowej architektury sieci neuronowych 351 Aktywacja sieci neuronowej za pomocą propagacji w przód 354 Klasyfikowanie pisma odręcznego 356 Zestaw danych MNIST 357 Implementacja perceptronu wielowarstwowego 362 Trenowanie sztucznej sieci neuronowej 371 Obliczanie logistycznej funkcji kosztu 371 Ujęcie intuicyjne algorytmu wstecznej propagacji 374 Uczenie sieci neuronowych za pomocą algorytmu propagacji wstecznej 375 Zbieżność w sieciach neuronowych 378 Jeszcze słowo o implementacji sieci neuronowej 380 Rozdział 13. Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow 381 Biblioteka TensorFlow a skuteczność uczenia 382 Czym jest biblioteka TensorFlow? 383 W jaki sposób będziemy poznawać bibliotekę TensorFlow? 384 Pierwsze kroki z biblioteką TensorFlow 384 Praca ze strukturami tablicowymi 386 Tworzenie prostego modelu za pomocą podstawowego interfejsu TensorFlow 387 Skuteczne uczenie sieci neuronowych za pomocą wyspecjalizowanych interfejsów biblioteki TensorFlow 391 Tworzenie wielowarstwowych sieci neuronowych za pomocą interfejsu Layers 392 Projektowanie wielowarstwowej sieci neuronowej za pomocą interfejsu Keras 395 Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych 400 Funkcja logistyczna - powtórzenie 400 Szacowanie prawdopodobieństw przynależności do klas w klasyfikacji wieloklasowej za pomocą funkcji softmax 402 Rozszerzanie zakresu wartości wyjściowych za pomocą funkcji tangensa hiperbolicznego 403 Aktywacja za pomocą prostowanej jednostki liniowej (ReLU) 405 Rozdział 14. Czas na szczegóły - mechanizm działania biblioteki TensorFlow 409 Główne funkcje biblioteki TensorFlow 410 Rzędy i tensory 410 Sposób uzyskania rzędu i wymiarów tensora 411 Grafy obliczeniowe 412 Węzły zastępcze 414 Definiowanie węzłów zastępczych 414 Wypełnianie węzłów zastępczych danymi 415 Definiowanie węzłów zastępczych dla tablic danych o różnych rozmiarach pakietów danych 416 Zmienne 417 Definiowanie zmiennych 417 Inicjowanie zmiennych 419 Zakres zmiennych 420 Wielokrotne wykorzystywanie zmiennych 421 Tworzenie modelu regresyjnego 423 Realizowanie obiektów w grafie TensorFlow przy użyciu ich nazw 426 Zapisywanie i wczytywanie modelu 428 Przekształcanie tensorów jako wielowymiarowych tablic danych 430 Wykorzystywanie mechanizmów przebiegu sterowania do tworzenia grafów 433 Wizualizowanie grafów za pomocą modułu TensorBoard 436 Zdobywanie doświadczenia w używaniu modułu TensorBoard 439 Rozdział 15. Klasyfikowanie obrazów za pomocą splotowych sieci neuronowych 441 Podstawowe elementy splotowej sieci neuronowej 442 Splotowe sieci neuronowe i hierarchie cech 442 Splot dyskretny 444 Podpróbkowanie 452 Konstruowanie sieci CNN 454 Praca z wieloma kanałami wejściowymi/barw 454 Regularyzowanie sieci neuronowej metodą porzucania 457 Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow 459 Architektura wielowarstwowej sieci CNN 459 Wczytywanie i wstępne przetwarzanie danych 460 Implementowanie sieci CNN za pomocą podstawowego interfejsu TensorFlow 461 Implementowanie sieci CNN za pomocą interfejsu Layers 471 Rozdział 16. Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych 477 Wprowadzenie do danych sekwencyjnych 478 Modelowanie danych sekwencyjnych - kolejność ma znaczenie 478 Przedstawianie sekwencji 478 Różne kategorie modelowania sekwencji 479 Sieci rekurencyjne służące do modelowania sekwencji 480 Struktura sieci RNN i przepływ danych 480 Obliczanie aktywacji w sieciach rekurencyjnych 482 Problemy z uczeniem długofalowych oddziaływań 485 Jednostki LSTM 486 Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji 488 Pierwszy projekt - analiza sentymentów na zestawie danych IMDb za pomocą wielowarstwowej sieci rekurencyjnej 489 Przygotowanie danych 489 Wektor właściwościowy 492 Budowanie modelu sieci rekurencyjnej 494 Konstruktor klasy SentimentRNN 495 Metoda build 495 Metoda train 499 Metoda predict 500 Tworzenie wystąpienia klasy SentimentRNN 500 Uczenie i optymalizowanie modelu sieci rekurencyjnej przeznaczonej do analizy sentymentów 501 Drugi projekt - implementowanie sieci rekurencyjnej modelującej język na poziomie znaków 502 Przygotowanie danych 503 Tworzenie sieci RNN przetwarzającej znaki 506 Konstruktor 506 Metoda build 507 Metoda train 509 Metoda sample 510 Tworzenie i uczenie modelu CharRNN 512 Model CharRNN w trybie próbkowania 512
Sygnatura czytelni BWEAiI: XII Ł 153
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148069 N (1 egz.)
Książka
W koszyku
(Biblia. Wiedza Obiecana)
Tyt. oryg.: Windows Server 2008 Bible.
U góry s. tyt. i okł. nazwa wydawcy oryg.: Wiley.
U góry okł.: Poznaj tajniki Windows Server 2008 i przejmij kontrolę nad infrastrukturą systemu.
Na okł.: Zainstaluj i skonfiguruj system [...].
Indeks.
Sygnatura czytelni BWEAiI: XII P 37
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 124777 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności