Sawka Krzysztof
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(28)
Forma i typ
Książki
(27)
Publikacje fachowe
(19)
Publikacje dydaktyczne
(5)
Poradniki i przewodniki
(1)
Publikacje naukowe
(1)
Publikacje popularnonaukowe
(1)
Dostępność
tylko na miejscu
(25)
dostępne
(4)
wypożyczone
(1)
nieokreślona
(1)
Placówka
Wypożyczalnia
(4)
Biblioteka Międzywydziałowa
(2)
Biblioteka WEAiI
(25)
Autor
Berłowski Paweł
(189)
Kotowski Włodzimierz
(179)
Praca zbiorowa
(157)
Skoczylas Zbigniew
(152)
Stiasny Grzegorz
(143)
Sawka Krzysztof
(-)
Sadlik Ryszard
(142)
Blum Maciej
(140)
Michalski Dariusz
(134)
Lewandowski Maciej
(131)
Majewski Jerzy S
(131)
Etzold Hans-Rüdiger
(120)
Leśniewski Mariusz
(116)
Gewert Marian
(108)
Maruchin Wojciech
(107)
Guryn Halina
(105)
Traczyk Wojciech
(101)
Chalastra Michał
(99)
Kardyś Marta
(97)
Marx Karl (1818-1883)
(94)
Nazwisko Imię
(94)
Berkieta Mateusz
(93)
Tomczak Małgorzata
(93)
Polkowski Sławomir
(92)
Engels Friedrich (1820-1895)
(91)
Jakubiec Izabela
(90)
Kotapski Roman
(90)
Rybicki Piotr
(90)
Krysicki Włodzimierz (1905-2001)
(88)
Teleguj Kazimierz
(88)
Kapołka Maciej
(86)
Mikołajewska Emilia
(84)
Zaborowska Joanna
(81)
Starosolski Włodzimierz (1933- )
(80)
Meryk Radosław
(79)
Piątek Grzegorz
(79)
Rudnicki Bogdan
(79)
Górczyński Robert
(78)
Polit Ryszard
(77)
Mroczek Wojciech
(76)
Kulawik Marta
(74)
Mycielski Krzysztof
(74)
Myszkorowski Jakub
(73)
Konopka Eduard
(71)
Jabłoński Marek
(70)
Bielecki Jan (1942-2001)
(69)
Knosala Ryszard (1949- )
(68)
Rajca Piotr (1970- )
(68)
Rymarz Małgorzata
(68)
Walczak Krzysztof
(68)
Walkiewicz Łukasz
(68)
Wiecheć Marek
(68)
Jabłoński Adam
(67)
Laszczak Mirosław
(66)
Piwko Łukasz
(66)
Wodziczko Piotr
(65)
Dziedzic Zbigniew
(64)
Sidor-Rządkowska Małgorzata
(64)
Żakowski Wojciech (1929-1993)
(64)
Pasko Marian
(62)
Włodarski Lech (1916-1997)
(62)
Czakon Wojciech
(61)
Leyko Jerzy (1918-1995)
(61)
Jankowski Mariusz
(60)
Kostecka Alicja
(60)
Lenin Włodzimierz (1870-1924)
(60)
Paszkowska Małgorzata
(60)
Wróblewski Piotr
(60)
Karpińska Marta
(59)
Próchnicki Wojciech
(59)
Rogala Elżbieta
(59)
Bielecki Maciej
(57)
Jelonek Jakub
(57)
Malkowski Tomasz
(57)
Pilch Piotr
(57)
Rauziński Robert (1933- )
(57)
Gawrońska Joanna
(56)
Ajdukiewicz Andrzej (1939- )
(55)
Cieślak Piotr
(55)
Draniewicz Bartosz
(55)
Godek Piotr
(55)
Osiński Zbigniew (1926-2001)
(55)
Jasiński Filip
(54)
Klupiński Kamil
(54)
Kuliński Włodzisław
(54)
Suchodolski Bogdan (1903-1992)
(54)
Forowicz Krystyna
(53)
Szkutnik Leon Leszek
(52)
Zdanikowski Paweł
(52)
Wantuch-Matla Dorota
(51)
Barowicz Marek
(50)
Trammer Hubert
(50)
Walczak Tomasz
(50)
Watrak Andrzej
(50)
Zgółkowa Halina (1947- )
(50)
Barańska Katarzyna
(49)
Czajkowska-Matosiuk Katarzyna
(49)
Jurlewicz Teresa
(49)
Pikoń Andrzej
(49)
Szargut Jan (1923- )
(49)
Chojnacki Ireneusz
(48)
Rok wydania
2020 - 2024
(12)
2010 - 2019
(15)
2000 - 2009
(1)
Okres powstania dzieła
2001-
(20)
1989-2000
(1)
Kraj wydania
Polska
(28)
Język
polski
(28)
Odbiorca
Programiści
(3)
Analitycy danych
(1)
Architekci oprogramowania
(1)
Informatycy
(1)
Szkoły wyższe
(1)
Szkoły średnie
(1)
Temat
Uczenie maszynowe
(6)
Języki programowania
(4)
Programowanie (informatyka)
(4)
Python (język programowania)
(4)
Sieci neuronowe (informatyka)
(4)
Android (system operacyjny)
(3)
Systemy operacyjne mobilne
(3)
Deep learning
(2)
Kody
(2)
Linux (system operacyjny)
(2)
Microsoft Windows Server (system operacyjny)
(2)
Rust (język programowania)
(2)
Sztuczna inteligencja
(2)
Sztuczna sieć neuronowa
(2)
Algorytmy
(1)
Analiza danych
(1)
Aparatura i przyrządy naukowe
(1)
Architektura oprogramowania
(1)
Automatyka
(1)
Badania operacyjne
(1)
Baza danych
(1)
Biblioteka (informatyka)
(1)
Data Mining (metoda)
(1)
Data science
(1)
Inteligencja sztuczna
(1)
Keras (biblioteka programistyczna)
(1)
Komputery
(1)
Nauka
(1)
Podręcznik
(1)
Power BI
(1)
Programowanie
(1)
Programowanie ewolucyjne
(1)
Programowanie zwinne
(1)
Programy komputerowe
(1)
Projektowanie wspomagane komputerowo
(1)
Przywództwo
(1)
R (język programowania)
(1)
Roboty i manipulatory
(1)
Sieci neuronowe
(1)
Sieci neuronowe (komputerowe)
(1)
Systemy operacyjne
(1)
Szczupłe zarządzanie
(1)
TensorFlow (biblioteka programistyczna)
(1)
Układ cyfrowy
(1)
Zarządzanie produktem
(1)
Zarządzanie projektami
(1)
Temat: czas
2001-
(2)
Gatunek
Podręcznik
(16)
Opracowanie
(5)
Poradnik
(4)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(19)
Zarządzanie i marketing
(2)
Fizyka i astronomia
(1)
Inżynieria i technika
(1)
Matematyka
(1)
28 wyników Filtruj
Książka
W koszyku
Tytuł oryginału: Web scraping with Python : collecting data from the modern web.
Podtytuł według okładki.
Wydanie 2. odnosi się do oryginału.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Na książce także ISBN oryginału: 9781491985571.
Indeks.
Część I. Tworzenie pełzaczy 1.Twój pierwszy robot indeksujący Połączenie Wprowadzenie do biblioteki BeautifulSoup Instalacja biblioteki BeautifulSoup Korzystanie z biblioteki BeautifulSoup Stabilne połączenia i obsługa wyjątków 2.Zaawansowana analiza składniowa HTML Młotek nie zawsze jest potrzebny Kolejna porcja BeautifulSoup Funkcje find() i find_all() Inne obiekty biblioteki BeautifulSoup Poruszanie się po drzewach hierarchii Wyrażenia regularne Wyrażenia regularne w bibliotece BeautifulSoup Uzyskiwanie dostępu do atrybutów Wyrażenia lambda 3.Tworzenie robotów indeksujących Poruszanie się po pojedynczej domenie Pełzanie po całej witrynie Gromadzenie danych z całej witryny Pełzanie po internecie 4.Modele ekstrakcji danych Planowanie i definiowanie obiektów Obsługa różnych szat graficznych Konstruowanie robotów indeksujących Poruszanie się po witrynach za pomocą paska wyszukiwania Poruszanie się po witrynach za pomocą odnośników Poruszanie się pomiędzy różnymi typami stron Właściwe podejście do procesu tworzenia modeli robotów indeksujących 5.Scrapy Instalacja biblioteki Scrapy Inicjowanie nowego pająka Pisanie prostego robota indeksującego Korzystanie z pająków przy użyciu reguł Tworzenie elementów Wyświetlanie elementów Potoki elementów Dzienniki zdarzeń w bibliotece Scrapy Dodatkowe zasoby 6.Przechowywanie danych Pliki multimedialne Przechowywanie danych w plikach CSV MySQL Instalacja środowiska MySQL Podstawowe polecenia Integracja ze środowiskiem Python Techniki bazodanowe i dobre rozwiązania Sześć stopni oddalenia w środowisku MySQL Alerty e-mail Część II. Zaawansowana ekstrakcja danych 7. Odczytywanie dokumentów Kodowanie dokumentu Pliki tekstowe Kodowanie tekstu a internet globalny Format CSV Odczyt plików CSV Format PDF Edytor Microsoft Word i pliki .docx 8.Oczyszczanie danych Oczyszczanie na poziomie kodu Normalizacja danych Oczyszczanie pozyskanych danych OpenRefine 9.Odczyt i zapis języków naturalnych Podsumowywanie danych Modele Markowa Sześć stopni oddalenia od Wikipedii — podsumowanie Natural Language Toolkit Instalacja i konfiguracja Analiza statystyczna za pomocą pakietu NLTK Analiza leksykologiczna za pomocą pakietu NLTK Dodatkowe zasoby 10.Kwestia formularzy i pól logowania Biblioteka Reąuests Przesyłanie podstawowego formularza Przyciski opcji, pola zaznaczania i inne mechanizmy wprowadzania danych Wysyłanie plików i obrazów Pola logowania i ciasteczka Podstawowe uwierzytelnianie protokołu HTTP Inne problemy z formularzami 11.Ekstrakcja danych a język JavaScript Krótkie wprowadzenie do języka JavaScript Popularne biblioteki JavaScriptu Ajax i dynamiczny HTML Uruchamianie kodu JavaScriptu w środowisku Python za pomocą biblioteki Selenium Dodatkowe obiekty WebDriver Obsługa przekierowań Końcowe uwagi na temat języka JavaScript 12.Ekstrakcja danych poprzez API Krótkie wprowadzenie do API Metody HTTP a API Dodatkowe informacje na temat odpowiedzi API Analizowanie składni formatu JSON Nieudokumentowane API Wyszukiwanie nieudokumentowanych API Dokumentowanie nieudokumentowanych API Automatyczne wyszukiwanie i dokumentowanie API Łączenie API z innymi źródłami danych Dodatkowe informacje na temat API 13.Przetwarzanie obrazów i rozpoznawanie tekstu Przegląd bibliotek Pillow Tesseract NumPy Przetwarzanie prawidłowo sformatowanego tekstu Automatyczne korygowanie obrazów Ekstrakcja danych z obrazów umieszczonych w witrynach Odczytywanie znaków CAPTCHA i uczenie aplikacji Tesseract Uczenie aplikacji Tesseract Ekstrakcja kodów CAPTCHA i przesyłanie odpowiedzi 14.Unikanie pułapek na boty Kwestia etyki Udawanie człowieka Dostosuj nagłówki Obsługa ciastek za pomocą języka JavaScript Wyczucie czasu to podstawa Popularne zabezpieczenia formularzy Wartości ukrytych pól wejściowych Unikanie wabików Być człowiekiem 15.Testowanie witryn internetowych za pomocą robotów indeksujących Wprowadzenie do testowania Czym są testy jednostkowe? Moduł unittest Testowanie Wikipedii Testowanie za pomocą biblioteki Selenium Interakcje z witryną Selenium czy unittest? 16.Zrównoleglanie procesu ekstrakcji danych Procesy i wątki Wielowątkowa ekstrakcja danych Wyścigi i kolejki Moduł threading Wieloprocesowa ekstrakcja danych Przykład z Wikipedią Komunikacja międzyprocesowa Wieloprocesowa ekstrakcja danych — metoda alternatywna 17.Zdalna ekstrakcja danych z internetu Powody korzystania z serwerów zdalnych Unikanie blokowania adresu IP Przenośność i rozszerzalność Tor PySocks Hosting zdalny Uruchamianie z poziomu serwisu hostingowego Uruchamianie z poziomu chmury Dodatkowe zasoby 18.Legalność i etyka ekstrakcji danych z internetu Znaki towarowe, prawa autorskie, patenty, ojej! 251 Prawo autorskie Naruszenie prawa własności rzeczy ruchomych Ustawa o oszustwach i nadużyciach komputerowych Plik robots.txt i warunki świadczenia usług Trzy roboty indeksujące Sprawa eBay przeciwko Bidder's Edge (prawo własności rzeczy ruchomych) Sprawa Stany Zjednoczone przeciwko Auernheimerowi (ustawa CFAA) Sprawa Field przeciwko Google (prawo autorskie i plik robots.txt)
Sygnatura czytelni BWEAiI: XII Ł 155
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148499 N (1 egz.)
Książka
W koszyku
(Księga Eksperta)
Na s. tyt. i okł.: Kompendium wiedzy na temat systemu Windows Server 2008 PL. Jak wdrożyć system Windows Server 2008? Jak konfigurować usługi sieciowe? Jak monitorować wydajność systemu Windows Server?
Indeks.
Sygnatura czytelni BWEAiI: XII P 49
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 135430 N (1 egz.)
Książka
W koszyku
Na grzb.: Makermedia.
Indeks.
Streszczenie: Pokazuje jak urządzić własne laboratorium badawcze, jak zaprojektować i zbudować przyrządy pomiarowe i sprzęt laboratoryjny, aby za ich pomocą poznawać fascynujące prawa przyrody.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 143180 N (1 egz.)
Książka
W koszyku
Kod : ukryty język komputerów / Charles Petzold ; tłumaczenie Krzysztof Sawka - Gliwice : Helion, copyright 2021. - 384 strony : ilustracje ; 24 cm.
Rozdział 1. Najlepsi kumple (1) Rozdział 2. Kody i kombinacje (7) Rozdział 3. Kod Braille'a a kod binarny (13) Rozdział 4. Anatomia latarki (20) Rozdział 5. Tam sięgaj, gdzie wzrok nie sięga (30) Rozdział 6. Telegrafy i przekaźniki (38) Rozdział 7. Naszych dziesięć cyfr (45) Rozdział 8. Jeśli nie system dziesiętny, to co? (52) Rozdział 9. Bit bita bitem pogania (67) Rozdział 10. Logika i przełączniki (84) Rozdział 11. Bramki (100) Rozdział 12. Binarna maszyna sumująca (129) Rozdział 13. A co z odejmowaniem? (142) Rozdział 14. Sprzężenie zwrotne i przerzutniki (154) Rozdział 15. Bajty i system szesnastkowy (179) Rozdział 16. Czas sklecić pamięć (189) Rozdział 17. Automatyzacja (205) Rozdział 18. Od liczydła do scalaka (242) Rozdział 19. Dwa klasyczne mikroprocesory (264) Rozdział 20. Kod ASCII i galeria znaków (290) Rozdział 21. Magistrala komunikacyjna (305) Rozdział 22. System operacyjny (324) Rozdział 23. Liczby stało- i zmiennoprzecinkowe (339) Rozdział 24. Języki wysokiego i niskiego poziomu (352) Rozdział 25. Rewolucja graficzna (366)
Sygnatura czytelni BWEAiI: XII Ś 29
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 151104 N (1 egz.)
Książka
W koszyku
Kod : ukryty język komputerów / Charles Petzold ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2023. - IX, [1], 425, [1] strona : ilustracje, portrety ; 24 cm.
Wydanie 2. odnosi się do oryginału. Na stronie 4. okładki: Microsoft Press.
Kody i kombinacje Kod Braillea a kod binarny Logika przełączników Telegrafy i przekaźniki Przekaźniki i bramki Alternatywne dziesiątki Bajty i system szesnastkowy Od systemu ASCII do Unicode Dodawanie za pomocą bramek logicznych Sprzężenie zwrotne i przerzutniki Automatyzacja obliczeń arytmetycznych Jednostka arytmetyczno-logiczna Rej estry i magistrale Sygnały sterujące procesora
Sygnatura czytelni BWEAiI: XII E 128
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154679 N (1 egz.)
Książka
W koszyku
Python : uczenie maszynowe / Sebastian Raschka ; [tłumaczenie: Krzysztof Sawka]. - Gliwice : Wydawnictwo Helion, copyright 2018. - 413 stron : ilustracje, wykresy ; 23 cm.
(Technologia i Rozwiązania)
Na okładce i stronie tytułowej wydawca angielskiej wersji: Packt Publishing.
Indeks.
Umożliwianie komputerom uczenia się z danych Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę Trzy różne rodzaje uczenia maszynowego Prognozowanie przyszłości za pomocą uczenia nadzorowanego Rozwiązywanie problemów interaktywnych za pomocą uczenia przez wzmacnianie Odkrywanie ukrytych struktur za pomocą uczenia nienadzorowanego Wprowadzenie do podstawowej terminologii i notacji Strategia tworzenia systemów uczenia maszynowego Wstępne przetwarzanie - nadawanie danym formy Trenowanie i dobór modelu predykcyjnego Ewaluacja modeli i przewidywanie wystąpienia nieznanych danych Wykorzystywanie środowiska Python do uczenia maszynowego Instalacja pakietów w Pythonie Trenowanie algorytmów uczenia maszynowego w celach klasyfikacji Sztuczne neurony - rys historyczny początków uczenia maszynowego Implementacja algorytmu uczenia perceptronu w Pythonie Trenowanie modelu perceptronu na zestawie danych Iris Adaptacyjne neurony liniowe i zbieżność uczenia Minimalizacja funkcji kosztu za pomocą metody gradientu prostego Implementacja adaptacyjnego neuronu liniowego w Pythonie Wielkoskalowe uczenie maszynowe i metoda stochastycznego spadku wzdłuż gradientu Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn Wybór algorytmu klasyfikującego Pierwsze kroki z biblioteką scikit-learn Uczenie perceptronu za pomocą biblioteki scikit-learn Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej Teoretyczne podłoże regresji logistycznej i prawdopodobieństwa warunkowego Wyznaczanie wag logistycznej funkcji kosztu Uczenie modelu regresji logistycznej za pomocą biblioteki scikit-learn Zapobieganie nadmiernemu dopasowaniu za pomocą regularyzacji Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych Teoretyczne podłoże maksymalnego marginesu Rozwiązywanie przypadków nieliniowo rozdzielnych za pomocą zmiennych uzupełniających Alternatywne implementacje w interfejsie scikit-learn Rozwiązywanie nieliniowych problemów za pomocą jądra SVM Stosowanie sztuczki z funkcją jądra do znajdowania przestrzeni rozdzielających w przestrzeni o większej liczbie wymiarów Uczenie drzew decyzyjnych Maksymalizowanie przyrostu informacji - osiąganie jak największych korzyści Budowanie drzewa decyzyjnego Łączenie słabych klasyfikatorów w silne klasyfikatory za pomocą modelu losowego lasu Algorytm k-najbliższych sąsiadów - model leniwego uczenia Tworzenie dobrych zbiorów uczących - wstępne przetwarzanie danych Kwestia brakujących danych Usuwanie próbek lub cech niezawierających wartości Wstawianie brakujących danych Estymatory interfejsu scikit-learn Przetwarzanie danych kategoryzujących Mapowanie cech porządkowych Kodowanie etykiet klas Kodowanie "gorącojedynkowe" cech nominalnych (z użyciem wektorów własnych) Rozdzielanie zestawu danych na podzbiory uczące i testowe Skalowanie cech Dobór odpowiednich cech Regularyzacja L1 Algorytmy sekwencyjnego wyboru cech Ocenianie istotności cech za pomocą algorytmu losowego lasu Kompresja danych poprzez redukcję wymiarowości Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych Wyjaśniona wariancja całkowita Transformacja cech Analiza głównych składowych w interfejsie scikit-learn Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej Obliczanie macierzy rozproszenia Dobór dyskryminant liniowych dla nowej podprzestrzeni cech Rzutowanie próbek na nową przestrzeń cech Implementacja analizy LDA w bibliotece scikit-learn Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas Funkcje jądra oraz sztuczka z funkcją jądra Implementacja jądrowej analizy głównych składowych w Pythonie Rzutowanie nowych punktów danych Algorytm jądrowej analizy głównych składowych w bibliotece scikit-learn Najlepsze metody oceny modelu i strojenie parametryczne Usprawnianie cyklu pracy za pomocą kolejkowania Wczytanie zestawu danych Breast Cancer Wisconsin Łączenie funkcji transformujących i estymatorów w kolejce czynności Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu Metoda wydzielania K-krotny sprawdzian krzyżowy Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji Diagnozowanie problemów z obciążeniem i wariancją za pomocą krzywych uczenia Rozwiązywanie problemów nadmiernego i niewystarczającego dopasowania za pomocą krzywych walidacji Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki Strojenie hiperparametrów przy użyciu metody przeszukiwania siatki Dobór algorytmu poprzez zagnieżdżony sprawdzian krzyżowy Przegląd metryk oceny skuteczności Odczytywanie macierzy pomyłek Optymalizacja precyzji i pełności modelu klasyfikującego Wykres krzywej ROC Metryki zliczające dla klasyfikacji wieloklasowej Łączenie różnych modeli w celu uczenia zespołowego Uczenie zespołów Implementacja prostego klasyfikatora wykorzystującego głosowanie większościowe Łączenie różnych algorytmów w celu klasyfikacji za pomocą głosowania większościowego Ewaluacja i strojenie klasyfikatora zespołowego Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego Wykorzystywanie uczenia maszynowego w analizie sentymentów Zestaw danych IMDb movie review Wprowadzenie do modelu worka słów Przekształcanie słów w wektory cech Ocena istotności wyrazów za pomocą ważenia częstości termów - odwrotnej częstości w tekście Oczyszczanie danych tekstowych Przetwarzanie tekstu na znaczniki Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej Serializacja wyuczonych estymatorów biblioteki scikit-learn Konfigurowanie bazy danych SQLite Tworzenie aplikacji sieciowej za pomocą środowiska Flask Nasza pierwsza aplikacja sieciowa Sprawdzanie i wyświetlanie formularza Przekształcanie klasyfikatora recenzji w aplikację sieciową Umieszczanie aplikacji sieciowej na publicznym serwerze Aktualizowanie klasyfikatora recenzji filmowych Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej Wprowadzenie do prostego modelu regresji liniowej Zestaw danych Housing Wizualizowanie ważnych elementów zestawu danych Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów Określanie parametrów regresywnych za pomocą metody gradientu prostego Szacowanie współczynnika modelu regresji za pomocą biblioteki scikit-learn Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC Ocenianie skuteczności modeli regresji liniowej Stosowanie regularyzowanych metod regresji Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa Modelowanie nieliniowych zależności w zestawie danych Housing Analiza nieliniowych relacji za pomocą algorytmu losowego lasu Praca z nieoznakowanymi danymi - analiza skupień Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów Algorytm k-means++ Klasteryzacja twarda i miękka Stosowanie metody łokcia do wyszukiwania optymalnej liczby skupień Ujęcie ilościowe jakości klasteryzacji za pomocą wykresu profilu Organizowanie skupień do postaci drzewa klastrów Przeprowadzanie hierarchicznej analizy skupień na macierzy odległości Dołączanie dendrogramów do mapy cieplnej Aglomeracyjna analiza skupień w bibliotece scikit-learn Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN Trenowanie sztucznych sieci neuronowych w rozpoznawaniu obrazu Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych Jednowarstwowa sieć neuronowa - powtórzenie Wstęp do wielowarstwowej architektury sieci neuronowych Aktywacja sieci neuronowej za pomocą propagacji w przód Klasyfikowanie pisma odręcznego Zestaw danych MNIST Implementacja wielowarstwowego perceptronu Trenowanie sztucznej sieci neuronowej Obliczanie logistycznej funkcji kosztu Uczenie sieci neuronowych za pomocą algorytmu wstecznej propagacji Ujęcie intuicyjne algorytmu wstecznej propagacji Usuwanie błędów w sieciach neuronowych za pomocą sprawdzania gradientów Zbieżność w sieciach neuronowych Inne architektury sieci neuronowych Splotowe sieci neuronowe Rekurencyjne sieci neuronowe Jeszcze słowo o implementacji sieci neuronowej Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki Theano Tworzenie, kompilowanie i uruchamianie wyrażeń w interfejsie Theano Czym jest Theano? Pierwsze kroki z Theano Konfigurowanie środowiska Theano Praca ze strukturami tablicowymi Przejdźmy do konkretów - implementacja regresji liniowej w Theano Dobór funkcji aktywacji dla jednokierunkowych sieci neuronowych Funkcja logistyczna - powtórzenie Szacowanie prawdopodobieństw w klasyfikacji wieloklasowej za pomocą znormalizowanej funkcji wykładniczej Rozszerzanie zakresu wartości wyjściowych za pomocą funkcji tangensa hiperbolicznego Skuteczne uczenie sieci neuronowych za pomocą biblioteki Keras
Sygnatura czytelni BWEAiI: XII Ł 88
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 145176 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Python machine learning : machine learning and deep learning with Pyton, scikit-learn and TensorFlow.
Wydanie 2. odnosi się do oryginału.
Na książce także ISBN oryginału.
Indeks.
Rozdział 1. Umożliwianie komputerom uczenia się z danych 23 Tworzenie inteligentnych maszyn służących do przekształcania danych w wiedzę 24 Trzy różne rodzaje uczenia maszynowego 24 Prognozowanie przyszłości za pomocą uczenia nadzorowanego 25 Rozwiązywanie problemów interaktywnych za pomocą uczenia przez wzmacnianie 28 Odkrywanie ukrytych struktur za pomocą uczenia nienadzorowanego 29 Wprowadzenie do podstawowej terminologii i notacji 30 Strategia tworzenia systemów uczenia maszynowego 32 Wstępne przetwarzanie - nadawanie danym formy 32 Trenowanie i dobór modelu predykcyjnego 34 Ewaluacja modeli i przewidywanie wystąpienia nieznanych danych 34 Wykorzystywanie środowiska Python do uczenia maszynowego 35 Instalacja środowiska Python i pakietów z repozytorium Python Package Index 35 Korzystanie z platformy Anaconda i menedżera pakietów 36 Pakiety przeznaczone do obliczeń naukowych, analizy danych i uczenia maszynowego 36 Rozdział 2. Trenowanie prostych algorytmów uczenia maszynowego w celach klasyfikacji 39 Sztuczne neurony - rys historyczny początków uczenia maszynowego 40 Formalna definicja sztucznego neuronu 41 Reguła uczenia perceptronu 43 Implementacja algorytmu uczenia perceptronu w Pythonie 45 Obiektowy interfejs API perceptronu 45 Trenowanie modelu perceptronu na zestawie danych Iris 48 Adaptacyjne neurony liniowe i zbieżność uczenia 53 Minimalizacja funkcji kosztu za pomocą metody gradientu prostego 55 Implementacja algorytmu Adaline w Pythonie 56 Usprawnianie gradientu prostego poprzez skalowanie cech 60 Wielkoskalowe uczenie maszynowe i metoda stochastycznego spadku wzdłuż gradientu 62 Rozdział 3. Stosowanie klasyfikatorów uczenia maszynowego za pomocą biblioteki scikit-learn 67 Wybór algorytmu klasyfikującego 68 Pierwsze kroki z biblioteką scikit-learn - uczenie perceptronu 68 Modelowanie prawdopodobieństwa przynależności do klasy za pomocą regresji logistycznej 74 Teoretyczne podłoże regresji logistycznej i prawdopodobieństwa warunkowego 74 Wyznaczanie wag logistycznej funkcji kosztu 78 Przekształcanie implementacji Adaline do postaci algorytmu regresji logistycznej 80 Uczenie modelu regresji logistycznej za pomocą biblioteki scikit-learn 84 Zapobieganie przetrenowaniu za pomocą regularyzacji 86 Wyznaczanie maksymalnego marginesu za pomocą maszyn wektorów nośnych 88 Teoretyczne podłoże maksymalnego marginesu 89 Rozwiązywanie przypadków nieliniowo rozdzielnych za pomocą zmiennych uzupełniających 90 Alternatywne implementacje w interfejsie scikit-learn 92 Rozwiązywanie nieliniowych problemów za pomocą jądra SVM 93 Metody jądrowe dla danych nierozdzielnych liniowo 93 Stosowanie sztuczki z funkcją jądra do znajdowania przestrzeni rozdzielających w przestrzeni wielowymiarowej 95 Uczenie drzew decyzyjnych 99 Maksymalizowanie przyrostu informacji - osiąganie jak największych korzyści 100 Budowanie drzewa decyzyjnego 103 Łączenie wielu drzew decyzyjnych za pomocą modelu losowego lasu 107 Algorytm k-najbliższych sąsiadów - model leniwego uczenia 109 Rozdział 4. Tworzenie dobrych zbiorów uczących - wstępne przetwarzanie danych 115 Kwestia brakujących danych 115 Wykrywanie brakujących wartości w danych tabelarycznych 116 Usuwanie próbek lub cech niezawierających wartości 117 Wstawianie brakujących danych 118 Estymatory interfejsu scikit-learn 119 Przetwarzanie danych kategoryzujących 119 Cechy nominalne i porządkowe 120 Tworzenie przykładowego zestawu danych 120 Mapowanie cech porządkowych 121 Kodowanie etykiet klas 121 Kodowanie "gorącojedynkowe" cech nominalnych (z użyciem wektorów własnych) 122 Rozdzielanie zestawu danych na oddzielne podzbiory uczące i testowe 124 Skalowanie cech 127 Dobór odpowiednich cech 129 Regularyzacje L1 i L2 jako kary ograniczające złożoność modelu 129 Interpretacja geometryczna regularyzacji L2 130 Rozwiązania rzadkie za pomocą regularyzacji L1 131 Algorytmy sekwencyjnego wyboru cech 135 Ocenianie istotności cech za pomocą algorytmu losowego lasu 140 Rozdział 5. Kompresja danych poprzez redukcję wymiarowości 143 Nienadzorowana redukcja wymiarowości za pomocą analizy głównych składowych 144 Podstawowe etapy analizy głównych składowych 144 Wydobywanie głównych składowych krok po kroku 146 Wyjaśniona wariancja całkowita 148 Transformacja cech 149 Analiza głównych składowych w interfejsie scikit-learn 152 Nadzorowana kompresja danych za pomocą liniowej analizy dyskryminacyjnej 154 Porównanie analizy głównych składowych z liniową analizą dyskryminacyjną 155 Wewnętrzne mechanizmy działania liniowej analizy dyskryminacyjnej 156 Obliczanie macierzy rozproszenia 157 Dobór dyskryminant liniowych dla nowej podprzestrzeni cech 159 Rzutowanie próbek na nową przestrzeń cech 161 Implementacja analizy LDA w bibliotece scikit-learn 161 Jądrowa analiza głównych składowych jako metoda odwzorowywania nierozdzielnych liniowo klas 163 Funkcje jądra oraz sztuczka z funkcją jądra 164 Implementacja jądrowej analizy głównych składowych w Pythonie 168 Rzutowanie nowych punktów danych 175 Algorytm jądrowej analizy głównych składowych w bibliotece scikit-learn 178 Rozdział 6. Najlepsze metody oceny modelu i strojenie parametryczne 181 Usprawnianie cyklu pracy za pomocą kolejkowania 181 Wczytanie zestawu danych Breast Cancer Wisconsin 182 Łączenie funkcji transformujących i estymatorów w kolejce czynności 183 Stosowanie k-krotnego sprawdzianu krzyżowego w ocenie skuteczności modelu 184 Metoda wydzielania 185 K-krotny sprawdzian krzyżowy 186 Sprawdzanie algorytmów za pomocą krzywych uczenia i krzywych walidacji 190 Diagnozowanie problemów z obciążeniem i wariancją za pomocą krzywych uczenia 190 Rozwiązywanie problemów przetrenowania i niedotrenowania za pomocą krzywych walidacji 193 Dostrajanie modeli uczenia maszynowego za pomocą metody przeszukiwania siatki 195 Strojenie hiperparametrów przy użyciu metody przeszukiwania siatki 195 Dobór algorytmu poprzez zagnieżdżony sprawdzian krzyżowy 196 Przegląd metryk oceny skuteczności 198 Odczytywanie macierzy pomyłek 198 Optymalizacja precyzji i pełności modelu klasyfikującego 200 Wykres krzywej ROC 202 Metryki zliczające dla klasyfikacji wieloklasowej 204 Kwestia dysproporcji klas 205 Rozdział 7. Łączenie różnych modeli w celu uczenia zespołowego 209 Uczenie zespołów 209 Łączenie klasyfikatorów za pomocą algorytmu głosowania większościowego 213 Implementacja prostego klasyfikatora głosowania większościowego 214 Stosowanie reguły głosowania większościowego do uzyskiwania prognoz 219 Ewaluacja i strojenie klasyfikatora zespołowego 221 Agregacja - tworzenie zespołu klasyfikatorów za pomocą próbek początkowych 226 Agregacja w pigułce 227 Stosowanie agregacji do klasyfikowania przykładów z zestawu Wine 228 Usprawnianie słabych klasyfikatorów za pomocą wzmocnienia adaptacyjnego 231 Wzmacnianie - mechanizm działania 232 Stosowanie algorytmu AdaBoost za pomocą biblioteki scikit-learn 236 Rozdział 8. Wykorzystywanie uczenia maszynowego w analizie sentymentów 241 Przygotowywanie zestawu danych IMDb movie review do przetwarzania tekstu 242 Uzyskiwanie zestawu danych IMDb 242 Przetwarzanie wstępne zestawu danych IMDb do wygodniejszego formatu 243 Wprowadzenie do modelu worka słów 244 Przekształcanie słów w wektory cech 245 Ocena istotności wyrazów za pomocą ważenia częstości termów - odwrotnej częstości w tekście 246 Oczyszczanie danych tekstowych 248 Przetwarzanie tekstu na znaczniki 249 Uczenie modelu regresji logistycznej w celu klasyfikowania tekstu 251 Praca z większą ilością danych - algorytmy sieciowe i uczenie pozardzeniowe 253 Modelowanie tematyczne za pomocą alokacji ukrytej zmiennej Dirichleta 256 Rozkładanie dokumentów tekstowych za pomocą analizy LDA 257 Analiza LDA w bibliotece scikit-learn 258 Rozdział 9. Wdrażanie modelu uczenia maszynowego do aplikacji sieciowej 263 Serializacja wyuczonych estymatorów biblioteki scikit-learn 264 Konfigurowanie bazy danych SQLite 266 Tworzenie aplikacji sieciowej za pomocą środowiska Flask 269 Nasza pierwsza aplikacja sieciowa 269 Sprawdzanie i wyświetlanie formularza 271 Przekształcanie klasyfikatora recenzji w aplikację sieciową 275 Pliki i katalogi - wygląd drzewa katalogów 277 Implementacja głównej części programu w pliku app.py 277 Konfigurowanie formularza recenzji 280 Tworzenie szablonu strony wynikowej 281 Umieszczanie aplikacji sieciowej na publicznym serwerze 282 Tworzenie konta w serwisie PythonAnywhere 283 Przesyłanie aplikacji klasyfikatora filmowego 283 Aktualizowanie klasyfikatora recenzji filmowych 284 Rozdział 10. Przewidywanie ciągłych zmiennych docelowych za pomocą analizy regresywnej 287 Wprowadzenie do regresji liniowej 288 Prosta regresja liniowa 288 Wielowymiarowa regresja liniowa 288 Zestaw danych Housing 290 Wczytywanie zestawu danych Housing do obiektu DataFrame 290 Wizualizowanie ważnych elementów zestawu danych 292 Analiza związków za pomocą macierzy korelacji 293 Implementacja modelu regresji liniowej wykorzystującego zwykłą metodę najmniejszych kwadratów 296 Określanie parametrów regresywnych za pomocą metody gradientu prostego 296 Szacowanie współczynnika modelu regresji za pomocą biblioteki scikit-learn 300 Uczenie odpornego modelu regresywnego za pomocą algorytmu RANSAC 301 Ocenianie skuteczności modeli regresji liniowej 304 Stosowanie regularyzowanych metod regresji 307 Przekształcanie modelu regresji liniowej w krzywą - regresja wielomianowa 308 Dodawanie członów wielomianowych za pomocą biblioteki scikit-learn 309 Modelowanie nieliniowych zależności w zestawie danych Housing 310 Analiza nieliniowych relacji za pomocą algorytmu losowego lasu 314 Rozdział 11. Praca z nieoznakowanymi danymi - analiza skupień 319 Grupowanie obiektów na podstawie podobieństwa przy użyciu algorytmu centroidów 320 Algorytm centroidów w bibliotece scikit-learn 320 Inteligentniejszy sposób dobierania pierwotnych centroidów za pomocą algorytmu k-means++ 324 Klasteryzacja twarda i miękka 325 Stosowanie metody łokcia do wyszukiwania optymalnej liczby skupień 327 Ujęcie ilościowe jakości klasteryzacji za pomocą wykresu profilu 328 Organizowanie skupień do postaci drzewa klastrów 333 Oddolne grupowanie skupień 333 Przeprowadzanie hierarchicznej analizy skupień na macierzy odległości 335 Dołączanie dendrogramów do mapy cieplnej 338 Aglomeracyjna analiza skupień w bibliotece scikit-learn 339 Wyznaczanie rejonów o dużej gęstości za pomocą algorytmu DBSCAN 340 Rozdział 12. Implementowanie wielowarstwowej sieci neuronowej od podstaw 347 Modelowanie złożonych funkcji przy użyciu sztucznych sieci neuronowych 348 Jednowarstwowa sieć neuronowa - powtórzenie 349 Wstęp do wielowarstwowej architektury sieci neuronowych 351 Aktywacja sieci neuronowej za pomocą propagacji w przód 354 Klasyfikowanie pisma odręcznego 356 Zestaw danych MNIST 357 Implementacja perceptronu wielowarstwowego 362 Trenowanie sztucznej sieci neuronowej 371 Obliczanie logistycznej funkcji kosztu 371 Ujęcie intuicyjne algorytmu wstecznej propagacji 374 Uczenie sieci neuronowych za pomocą algorytmu propagacji wstecznej 375 Zbieżność w sieciach neuronowych 378 Jeszcze słowo o implementacji sieci neuronowej 380 Rozdział 13. Równoległe przetwarzanie sieci neuronowych za pomocą biblioteki TensorFlow 381 Biblioteka TensorFlow a skuteczność uczenia 382 Czym jest biblioteka TensorFlow? 383 W jaki sposób będziemy poznawać bibliotekę TensorFlow? 384 Pierwsze kroki z biblioteką TensorFlow 384 Praca ze strukturami tablicowymi 386 Tworzenie prostego modelu za pomocą podstawowego interfejsu TensorFlow 387 Skuteczne uczenie sieci neuronowych za pomocą wyspecjalizowanych interfejsów biblioteki TensorFlow 391 Tworzenie wielowarstwowych sieci neuronowych za pomocą interfejsu Layers 392 Projektowanie wielowarstwowej sieci neuronowej za pomocą interfejsu Keras 395 Dobór funkcji aktywacji dla wielowarstwowych sieci neuronowych 400 Funkcja logistyczna - powtórzenie 400 Szacowanie prawdopodobieństw przynależności do klas w klasyfikacji wieloklasowej za pomocą funkcji softmax 402 Rozszerzanie zakresu wartości wyjściowych za pomocą funkcji tangensa hiperbolicznego 403 Aktywacja za pomocą prostowanej jednostki liniowej (ReLU) 405 Rozdział 14. Czas na szczegóły - mechanizm działania biblioteki TensorFlow 409 Główne funkcje biblioteki TensorFlow 410 Rzędy i tensory 410 Sposób uzyskania rzędu i wymiarów tensora 411 Grafy obliczeniowe 412 Węzły zastępcze 414 Definiowanie węzłów zastępczych 414 Wypełnianie węzłów zastępczych danymi 415 Definiowanie węzłów zastępczych dla tablic danych o różnych rozmiarach pakietów danych 416 Zmienne 417 Definiowanie zmiennych 417 Inicjowanie zmiennych 419 Zakres zmiennych 420 Wielokrotne wykorzystywanie zmiennych 421 Tworzenie modelu regresyjnego 423 Realizowanie obiektów w grafie TensorFlow przy użyciu ich nazw 426 Zapisywanie i wczytywanie modelu 428 Przekształcanie tensorów jako wielowymiarowych tablic danych 430 Wykorzystywanie mechanizmów przebiegu sterowania do tworzenia grafów 433 Wizualizowanie grafów za pomocą modułu TensorBoard 436 Zdobywanie doświadczenia w używaniu modułu TensorBoard 439 Rozdział 15. Klasyfikowanie obrazów za pomocą splotowych sieci neuronowych 441 Podstawowe elementy splotowej sieci neuronowej 442 Splotowe sieci neuronowe i hierarchie cech 442 Splot dyskretny 444 Podpróbkowanie 452 Konstruowanie sieci CNN 454 Praca z wieloma kanałami wejściowymi/barw 454 Regularyzowanie sieci neuronowej metodą porzucania 457 Implementacja głębokiej sieci splotowej za pomocą biblioteki TensorFlow 459 Architektura wielowarstwowej sieci CNN 459 Wczytywanie i wstępne przetwarzanie danych 460 Implementowanie sieci CNN za pomocą podstawowego interfejsu TensorFlow 461 Implementowanie sieci CNN za pomocą interfejsu Layers 471 Rozdział 16. Modelowanie danych sekwencyjnych za pomocą rekurencyjnych sieci neuronowych 477 Wprowadzenie do danych sekwencyjnych 478 Modelowanie danych sekwencyjnych - kolejność ma znaczenie 478 Przedstawianie sekwencji 478 Różne kategorie modelowania sekwencji 479 Sieci rekurencyjne służące do modelowania sekwencji 480 Struktura sieci RNN i przepływ danych 480 Obliczanie aktywacji w sieciach rekurencyjnych 482 Problemy z uczeniem długofalowych oddziaływań 485 Jednostki LSTM 486 Implementowanie wielowarstwowej sieci rekurencyjnej przy użyciu biblioteki TensorFlow do modelowania sekwencji 488 Pierwszy projekt - analiza sentymentów na zestawie danych IMDb za pomocą wielowarstwowej sieci rekurencyjnej 489 Przygotowanie danych 489 Wektor właściwościowy 492 Budowanie modelu sieci rekurencyjnej 494 Konstruktor klasy SentimentRNN 495 Metoda build 495 Metoda train 499 Metoda predict 500 Tworzenie wystąpienia klasy SentimentRNN 500 Uczenie i optymalizowanie modelu sieci rekurencyjnej przeznaczonej do analizy sentymentów 501 Drugi projekt - implementowanie sieci rekurencyjnej modelującej język na poziomie znaków 502 Przygotowanie danych 503 Tworzenie sieci RNN przetwarzającej znaki 506 Konstruktor 506 Metoda build 507 Metoda train 509 Metoda sample 510 Tworzenie i uczenie modelu CharRNN 512 Model CharRNN w trybie próbkowania 512
Sygnatura czytelni BWEAiI: XII Ł 153
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148069 N (1 egz.)
Książka
W koszyku
(Biblia. Wiedza Obiecana)
Tyt. oryg.: Windows Server 2008 Bible.
U góry s. tyt. i okł. nazwa wydawcy oryg.: Wiley.
U góry okł.: Poznaj tajniki Windows Server 2008 i przejmij kontrolę nad infrastrukturą systemu.
Na okł.: Zainstaluj i skonfiguruj system [...].
Indeks.
Sygnatura czytelni BWEAiI: XII P 37
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 124777 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności