Sawka Krzysztof
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(28)
Forma i typ
Książki
(27)
Publikacje fachowe
(19)
Publikacje dydaktyczne
(5)
Poradniki i przewodniki
(1)
Publikacje naukowe
(1)
Publikacje popularnonaukowe
(1)
Dostępność
tylko na miejscu
(26)
dostępne
(4)
nieokreślona
(1)
Placówka
Wypożyczalnia
(4)
Biblioteka Międzywydziałowa
(2)
Biblioteka WEAiI
(25)
Autor
Berłowski Paweł
(189)
Kotowski Włodzimierz
(179)
Praca zbiorowa
(157)
Skoczylas Zbigniew
(152)
Stiasny Grzegorz
(143)
Sawka Krzysztof
(-)
Sadlik Ryszard
(142)
Blum Maciej
(140)
Michalski Dariusz
(134)
Lewandowski Maciej
(131)
Majewski Jerzy S
(131)
Etzold Hans-Rüdiger
(120)
Leśniewski Mariusz
(116)
Gewert Marian
(108)
Maruchin Wojciech
(107)
Guryn Halina
(105)
Traczyk Wojciech
(101)
Chalastra Michał
(99)
Kardyś Marta
(97)
Marx Karl (1818-1883)
(94)
Nazwisko Imię
(94)
Berkieta Mateusz
(93)
Tomczak Małgorzata
(93)
Polkowski Sławomir
(92)
Engels Friedrich (1820-1895)
(91)
Jakubiec Izabela
(90)
Kotapski Roman
(90)
Rybicki Piotr
(90)
Krysicki Włodzimierz (1905-2001)
(88)
Teleguj Kazimierz
(88)
Kapołka Maciej
(86)
Mikołajewska Emilia
(84)
Zaborowska Joanna
(81)
Piątek Grzegorz
(79)
Rudnicki Bogdan
(79)
Starosolski Włodzimierz (1933- )
(79)
Meryk Radosław
(78)
Górczyński Robert
(77)
Polit Ryszard
(77)
Mroczek Wojciech
(76)
Kulawik Marta
(74)
Mycielski Krzysztof
(74)
Myszkorowski Jakub
(73)
Konopka Eduard
(71)
Jabłoński Marek
(70)
Bielecki Jan (1942-2001)
(69)
Knosala Ryszard (1949- )
(68)
Rajca Piotr (1970- )
(68)
Rymarz Małgorzata
(68)
Walczak Krzysztof
(68)
Walkiewicz Łukasz
(68)
Wiecheć Marek
(68)
Jabłoński Adam
(67)
Laszczak Mirosław
(66)
Piwko Łukasz
(66)
Wodziczko Piotr
(65)
Dziedzic Zbigniew
(64)
Sidor-Rządkowska Małgorzata
(64)
Żakowski Wojciech (1929-1993)
(64)
Pasko Marian
(62)
Włodarski Lech (1916-1997)
(62)
Czakon Wojciech
(61)
Leyko Jerzy (1918-1995)
(61)
Jankowski Mariusz
(60)
Kostecka Alicja
(60)
Paszkowska Małgorzata
(60)
Wróblewski Piotr
(60)
Karpińska Marta
(59)
Lenin Włodzimierz (1870-1924)
(59)
Próchnicki Wojciech
(59)
Rogala Elżbieta
(59)
Bielecki Maciej
(57)
Jelonek Jakub
(57)
Malkowski Tomasz
(57)
Pilch Piotr
(57)
Rauziński Robert (1933- )
(57)
Gawrońska Joanna
(56)
Ajdukiewicz Andrzej (1939- )
(55)
Cieślak Piotr
(55)
Draniewicz Bartosz
(55)
Godek Piotr
(55)
Osiński Zbigniew (1926-2001)
(55)
Jasiński Filip
(54)
Kuliński Włodzisław
(54)
Suchodolski Bogdan (1903-1992)
(54)
Forowicz Krystyna
(53)
Klupiński Kamil
(53)
Szkutnik Leon Leszek
(52)
Zdanikowski Paweł
(52)
Wantuch-Matla Dorota
(51)
Barowicz Marek
(50)
Trammer Hubert
(50)
Walczak Tomasz
(50)
Watrak Andrzej
(50)
Zgółkowa Halina (1947- )
(50)
Barańska Katarzyna
(49)
Czajkowska-Matosiuk Katarzyna
(49)
Jurlewicz Teresa
(49)
Pikoń Andrzej
(49)
Szargut Jan (1923- )
(49)
Chojnacki Ireneusz
(48)
Rok wydania
2020 - 2024
(12)
2010 - 2019
(15)
2000 - 2009
(1)
Okres powstania dzieła
2001-
(20)
1989-2000
(1)
Kraj wydania
Polska
(28)
Język
polski
(28)
Odbiorca
Programiści
(3)
Analitycy danych
(1)
Architekci oprogramowania
(1)
Informatycy
(1)
Szkoły wyższe
(1)
Szkoły średnie
(1)
Temat
Uczenie maszynowe
(6)
Języki programowania
(4)
Programowanie (informatyka)
(4)
Python (język programowania)
(4)
Sieci neuronowe (informatyka)
(4)
Android (system operacyjny)
(3)
Systemy operacyjne mobilne
(3)
Deep learning
(2)
Kody
(2)
Linux (system operacyjny)
(2)
Microsoft Windows Server (system operacyjny)
(2)
Rust (język programowania)
(2)
Sztuczna inteligencja
(2)
Sztuczna sieć neuronowa
(2)
Algorytmy
(1)
Analiza danych
(1)
Aparatura i przyrządy naukowe
(1)
Architektura oprogramowania
(1)
Automatyka
(1)
Badania operacyjne
(1)
Baza danych
(1)
Biblioteka (informatyka)
(1)
Data Mining (metoda)
(1)
Data science
(1)
Inteligencja sztuczna
(1)
Keras (biblioteka programistyczna)
(1)
Komputery
(1)
Nauka
(1)
Podręcznik
(1)
Power BI
(1)
Programowanie
(1)
Programowanie ewolucyjne
(1)
Programowanie zwinne
(1)
Programy komputerowe
(1)
Projektowanie wspomagane komputerowo
(1)
Przywództwo
(1)
R (język programowania)
(1)
Roboty i manipulatory
(1)
Sieci neuronowe
(1)
Sieci neuronowe (komputerowe)
(1)
Systemy operacyjne
(1)
Szczupłe zarządzanie
(1)
TensorFlow (biblioteka programistyczna)
(1)
Układ cyfrowy
(1)
Zarządzanie produktem
(1)
Zarządzanie projektami
(1)
Temat: czas
2001-
(2)
Gatunek
Podręcznik
(16)
Opracowanie
(5)
Poradnik
(4)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(19)
Zarządzanie i marketing
(2)
Fizyka i astronomia
(1)
Inżynieria i technika
(1)
Matematyka
(1)
28 wyników Filtruj
Książka
W koszyku
(Onepress)
Tytuł oryginału: Product leadership : how top product managers launch awesome products and build successful teams.
Indeks.
Pełnia odpowiedzialności bez krztyny władzy? Co decyduje o niepowtarzalności przywództwa produktowego? Idealny styl przywództwa produktowego na danym etapie produktu Przywództwo w młodych firmach Naucz się budować i trenować zespół Implementowanie procesu i kierunku zorientowanego na realizację celów Naucz się oceniać sukces Twojej pracy Część I Lider produktu Rozdział 1. Czym jest zarządzanie produktem? Rola zarządzania produktem Historia zarządzania produktem Narodziny zarządzania produktem Zarządzanie produktem łączy się z technologią Zarządzanie produktem staje się zwinne Zarządzanie produktem zajmuje miejsce w pierwszym rzędzie Jaka jest przyszłość zarządzania produktem? Rozdział 2. Dlaczego przywództwo produktowe jest tak istotne? Wpływ lidera produktu Rozwijająca się organizacja Zespół Twórcy Wyzwania specyficzne dla przywództwa produktowego: nie tylko miejsce przy stole Czym nie jest przywództwo produktowe? Strategiczność przywództwa produktowego Dlaczego liderzy produktu nie mogą spać po nocach? Priorytetyzowanie pomysłów, funkcji i projektów Skuteczna i produktywna współpraca Szkolenie i rozwój zespołu produktowego Zarządzanie w górę i na zewnątrz Dostosowywanie i nakierowywanie organizacji Rozdział 3. Sztuka bycia wielkim liderem produktu Wyznaczanie zasad produktu Wyznaczanie wizji produktu Przejście od wizji do strategii Przejście od strategii do planu rozwoju produktu Koncentrowanie uwagi na problemach klienta Priorytetyzowanie celów i działań strategicznych Zarządzanie nieznanym Małe zakłady Duże zakłady Umieszczanie niejednoznaczności w ramach czasowych Produkt jest dyscypliną drużynową Projektowanie zespołu produktowego Różnorodność Przekrojowość Wieczny optymizm Tworzenie talentów w zespole produktowym i projektowanie karier Tworzenie ścieżki kariery w kierunku wizji Rozpoczynanie rozmowy o karierze z myślą o ogólnej perspektywie Wznoszenie się ponad trendy i technologię Rozwijanie kompetencji twardych Rozwijanie kompetencji miękkich Równowaga między odkrywaniem a dostarczaniem Tradycja a nowatorstwo Włączanie odkrywania do procesu Procesu w sam raz Komunikacja i ograniczenia Wyjaśnienie kwestii władzy Zarządzanie polityką Rozdział 4. Czy istnieje recepta na sukces? Jak wygląda sukces przywództwa produktowego? Mierzenie sukcesu Mierzenie sukcesu jako umiejętność rozwiązywania problemów Cechy wspólne skutecznych zespołów produktowych Jak rozpoznawać liderów produktu? Rozdział 5. Zatrudnianie lidera produktu Zatrudnianie i wdrażanie lidera produktu Wybór czasu na rekrutację Wybór czasu w organizacjach prowadzonych przez założyciela Wybór czasu zatrudniania we wschodzących lub szybko rozwijających się firmach Wybór czasu zatrudniania w środowiskach korporacyjnych Praktykanci tworzenie własnych liderów produktu W jaki sposób programy praktyk mogą wspierać przywództwo produktowe? Tworzenie programu praktyk Przypadek długofalowego zaangażowania się wobec ludzi i zespołów Stać się liderem produktu Część II Właściwy lider we właściwym czasie Rozdział 6. Nowo powstała organizacja Liderzy produktu w nowej firmie Największe wyzwania Rozwiązywanie właściwego problemu Równowaga pomiędzy wewnętrznymi a zewnętrznymi motywatorami Poznaj swojego klienta Zarządzanie oczekiwaniami zespołu Poznaj siebie Styl przywództwa produktowego w młodej firmie Powiązanie wizji produktu ze strategią i taktyką Odwzorowywanie wizji Ciągła komunikacja Odgrywanie roli klienta w celu odkrycia podstawowych wartości Nie pomijaj badań Badania, dane i testowanie Udostępnianie badań Priorytetyzowanie celów Równoważenie priorytetów i radzenie sobie z napięciami Jeszcze o wyborze priorytetyzowanych elementów Badania i ponowne ustalanie priorytetów Założyciel a pierwszy zatrudniony lider produktu Zespoły produktowe w młodej firmie Pełnienie różnych funkcji w małych zespołach Zarządzanie dynamiką zespołu Dobieranie osobowości i filozofii Dopasowywanie członków zespołu Dopasowywanie stylu przywództwa do stylu zespołu Ukierunkowanie na użytkowników Rozwijanie talentu Rozdział 7. Organizacja dojrzewająca Największe wyzwania stojące przed liderami w organizacjach dojrzewających Utrzymywanie koncentracji na użytkowniku Kontrola ego Podróż od eksperta technicznego do lidera ludzi Kojarzenie faktów Wspieranie liderów na ścieżce zmian Zapobieganie przerwaniu komunikacji Porada praktyczna dla liderów na ścieżce zmian Realizacja weryfikuje wizję Budowanie zespołów Rekrutowanie odpowiednich ludzi do zespołu Rozdział 8. Organizacja dojrzała korporacja Największe wyzwania korporacyjnych liderów produktu Unikanie samozadowolenia po odniesieniu sukcesu Zachowanie dyscypliny po odniesieniu sukcesu Zachowywanie koncentracji w czasie skalowania Dostarczanie strategii wejścia na rynek zorientowanej na klienta Skuteczna komunikacja i współpraca Unikanie ugrzecznionych danych Mierzenie właściwych czynników Praca a kultura firmy Przywództwo w korporacji Komunikacja z wewnętrznymi i zewnętrznymi klientami Promowanie współpracy Zmiana kultury korporacyjnej Czyny, nie słowa Utrzymywanie wyrazistości wizji Wdrożenie strategii portfela produktów Myślenie na małą skalę, skutki na wielką Twórz, zanim zajmiesz się tworzeniem Część IIIPraca z klientami, agencjami, partnerami i zewnętrznymi interesariuszami Rozdział 9. Odwzorowywanie środowiska partnerskiego Skuteczne odwzorowywanie Poszukiwanie wspólnej wartości Zaufanie jest spoiwem Wartość danych dostarczanych przez klienta Kiedy i dlaczego należy zatrudniać konsultantów? Uzupełnianie braków doświadczenia i taktycznych Zarządzanie zmianą Dołączanie pomocy z zewnątrz do zespołu Zarządzanie problemami Agencje, firmy projektowe i studia projektowe Przykładowe scenariusze Punkt widzenia lidera produktu Nierozsądny argument: projektowanie produktu jest strategiczne Wolni strzelcy/wykonawcy Partnerzy strategiczni Wielopłaszczyznowi ludzie i rozwiązania partnerskie Wiele strategii zatrudniania przepisem na sukces Konkluzje na temat partnerstwa Twórz w sposób wartościowy, realny i użyteczny Zachowaj mentalność ucznia Myśl nieszablonowo Nie uciekaj przed zmianami Skromność jest cnotą
Sygnatura czytelni BMW: VI Ę 253 (nowy)
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 147418 N (1 egz.)
Książka
W koszyku
Elementy robotyki dla początkujących / Mordechai Ben-Ari, Francesco Mondada ; tłumaczenie: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 280 stron : fotografie, ilustracje, wykresy ; 24 cm.
Bibliografie, netografie przy rozdziałach.
Rozdział 1. Roboty i ich zastosowania 1.1. Klasyfikacja robotów 1.2. Roboty przemysłowe 1.3. Autonomiczne roboty mobilne 1.4. Roboty humanoidalne 1.5. Roboty edukacyjne Gotowe roboty mobilne Zestawy robotyczne Ramiona robota Środowisko programistyczne 1.6. Robot ogólny 1.6.1. Napęd różnicowy 1.6.2. Czujniki zbliżeniowe 1.6.3. Czujniki podłoża 1.6.4. Wbudowany komputer 1.7. Formalizm algorytmiczny 1.8. Przegląd treści książki Rozdział 2. Czujniki 2.1. Podział czujników 2.2. Czujniki odległości 2.2.1. Ultradźwiękowe czujniki odległości 2.2.2. Czujniki zbliżeniowe na podczerwień 2.2.3. Optyczne czujniki odległości 2.2.4. Czujniki triangulacyjne 2.2.5. Skanery laserowe 2.3. Kamery 2.4. Pozostałe czujniki 2.5. Zakres, rozdzielczość, precyzja, dokładność 2.6. Nieliniowość 2.6.1. Czujniki liniowe 2.6.2. Czujniki nieliniowe Rozdział 3. Zachowanie reaktywne 3.1. Pojazdy Braitenberga 3.2. Reagowanie na wykrycie obiektu 3.3. Reagowanie i skręcanie 3.4. Podążanie za linią 3.4.1. Podążanie za linią za pomocą dwóch czujników podłoża 3.4.2. Podążanie za linią za pomocą tylko jednego czujnika podłoża 3.4.3. Bezgradientowe podążanie za linią 3.5. Prezentacja pojazdów Braitenberga Rozdział 4. Maszyny stanów skończonych 4.1. Maszyny stanowe 4.2. Zachowanie reaktywne sterowane stanem 4.3. Szukaj i podjedź 4.4. Implementacja maszyn stanów skończonych Rozdział 5. Ruch robota i odometria 5.1. Droga, prędkość i czas 5.2. Przyspieszenie jako zmiana prędkości 5.3. Od odcinków do ruchu ciągłego 5.4. Nawigacja za pomocą odometrii 5.5. Odometria liniowa 5.6. Odometryczne mierzenie zakrętów 5.7. Błędy odometryczne 5.8. Kodery (enkodery) kół 5.9. Bezwładnościowe systemy nawigacji 5.9.1. Akcelerometry (przyspieszeniomierze) 5.9.2. Żyroskopy 5.9.3. Zastosowania 5.11. Względna liczba elementów wykonawczych i stopni swobody 5.12. Ruch holonomiczny i nieholonomiczny Rozdział 6. Sterowanie 6.1. Modele sterowania 6.1.1. Sterowanie w pętli otwartej 6.1.2. Sterowanie w pętli zamkniętej 6.1.3. Okres algorytmu sterowania 6.2. Sterowanie typu "on-off" 6.3. Regulator proporcjonalny 6.4. Regulator proporcjonalno-całkujący 6.5. Sterownik proporcjonalno-całkująco-różniczkujący Rozdział 7. Nawigacja lokalna: omijanie przeszkód 7.1. Unikanie przeszkód 7.1.1. Podążanie wzdłuż ściany 7.1.2. Ukierunkowane podążanie wzdłuż ściany 7.1.3. Algorytm Pledge'a 7.2. Podążanie wzdłuż oznakowanej linii 7.3. Mrówki poszukujące źródła pożywienia 7.4. Model probabilistyczny zachowania mrówek 7.5. Maszyna stanów skończonych dla algorytmu wyszukiwania ścieżki Rozdział 8. Lokalizacja 8.1. Punkty charakterystyczne 8.2. Określanie pozycji na podstawie obiektów o znanym położeniu 8.2.1. Określanie położenia za pomocą kąta i odległości 8.2.2. Określanie położenia za pomocą triangulacji 8.3. Globalny system pozycjonowania 8.4. Lokalizacja probabilistyczna 8.4.1. Pomiary czujników zwiększają pewność 8.4.2. Niepewność w pomiarach 8.5. Niepewność ruchu Rozdział 9. Budowanie map 9.1. Mapy dyskretne i ciągłe 9.2. Zawartość komórek na mapie z siatką współrzędnych 9.3. Tworzenie mapy przez eksplorację: algorytm rubieżowy 9.3.1. Mapa z siatką współrzędnych i prawdopodobieństwami obłożenia 9.3.2. Algorytm rubieżowy 9.3.3. Priorytet w algorytmie rubieżowym 9.4. Budowanie mapy na podstawie znajomości środowiska 9.5. Przykład numeryczny algorytmu SLAM 9.6. Czynności ukazujące działanie algorytmu SLAM 9.7. Formalizacja algorytmu SLAM Rozdział 10. Nawigacja na podstawie map 10.1. Algorytm Dijkstry dla map z siatką współrzędnych 10.1.1. Algorytm Dijkstry dla map z siatką współrzędnych o stałym koszcie 10.1.2. Algorytm Dijkstry dla map z siatką współrzędnych o zmiennych kosztach 10.2. Algorytm Dijkstry dla map ciągłych 10.3. Planowanie trasy za pomocą algorytmu A* 10.4. Podążanie za ścieżką i unikanie przeszkód Rozdział 11. Sterowanie za pomocą logiki rozmytej 11.1. Rozmycie 11.2. Stosowanie reguł 11.3. Wyostrzenie Rozdział 12. Przetwarzanie obrazów 12.1. Otrzymywanie obrazów 12.2. Przegląd typów przetwarzania obrazów cyfrowych 12.3. Usprawnianie obrazów 12.3.1. Filtry przestrzenne 12.3.2. Manipulowanie histogramem 12.4. Wykrywanie krawędzi 12.5. Wykrywanie rogów 12.6. Wykrywanie plam Rozdział 13. Sieci neuronowe 13.1. Biologiczny układ nerwowy 13.2. Model sztucznej sieci neuronowej 13.3. Implementacja pojazdu Braitenberga za pomocą sieci ANN 13.4. Sztuczne sieci neuronowe: topologie 13.4.1. Topologia wielowarstwowa 13.4.2. Pamięć 13.4.3. Filtr przestrzenny 13.5. Uczenie 13.5.1. Rodzaje algorytmów uczących 13.5.2. Reguła Hebba w uczeniu sieci neuronowych Rozdział 14. Uczenie maszynowe 14.1. Rozróżnianie dwóch kolorów 14.1.1. Wyróżnik otrzymany na podstawie średnich 14.1.2. Wyróżnik otrzymany na podstawie średnich i wariancji 14.1.3. Algorytm służący do nauki rozpoznawania kolorów 14.2. Liniowa analiza dyskryminacyjna 14.2.1. Motywacja 14.2.2. Wyróżnik liniowy 14.2.3. Wybór punktu dla wyróżnika liniowego 14.2.4. Wybór współczynnika kierunkowego 14.2.5. Obliczanie wyróżnika liniowego: przykład numeryczny 14.2.6. Porównywanie jakości wyróżników 14.2.7. Czynności związane z analizą LDA 14.3. Uogólnienie wyróżnika liniowego 14.4. Perceptrony 14.4.1. Wykrywanie zboczy 14.4.2. Klasyfikacja za pomocą perceptronów 14.4.3. Uczenie perceptronu 14.4.4. Przykład numeryczny 14.4.5. Strojenie parametrów perceptronu Rozdział 15. Robotyka roju 15.1. Strategie koordynowania współpracy robotów 15.2. Koordynacja na podstawie lokalnej wymiany informacji 15.2.1. Komunikacja bezpośrednia 15.2.2. Komunikacja pośrednia 15.2.3. Algorytm BeeClust 15.2.4. Implementacja algorytmu BeeClust przez projekt ASSISIbf 15.3. Robotyka roju wykorzystująca oddziaływania fizyczne 15.3.1. Współpraca przy fizycznym zadaniu 15.3.2. Łączenie sił wielu robotów 15.3.3. Zbiorowe przesuwanie z użyciem okluzji Rozdział 16. Kinematyka manipulatora robotycznego 16.1. Kinematyka prosta 16.2. Kinematyka odwrotna 16.3. Rotacje 16.3.1. Rotacja wektora 16.3.2. Rotacja układu współrzędnych 16.3.3. Przekształcenie wektora z jednego układu współrzędnych do innego 16.4. Rotacja i translacja układu współrzędnych 16.5. Przedsmak rotacji trójwymiarowych 16.5.1. Rotacje wokół trzech osi 16.5.2. Reguła prawej dłoni 16.5.3. Macierze trójwymiarowych obrotów 16.5.4. Rotacje wielokrotne 16.5.5. Kąty Eulera 16.5.6. Liczba oddzielnych rotacji kątów Eulera 16.6. Zaawansowane zagadnienia związane z przekształceniami trójwymiarowymi
Sygnatura czytelni BWEAiI: XII Ą 149
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 152501 (1 egz.)
Książka
W koszyku
Tytuł oryginału: Programming Rust : fast, safe systems development.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Indeks.
1. Dlaczego Rust? 19 Bezpieczeństwo typów 21 2. Pierwsze spotkanie z Rustem 25 Pobranie i instalacja Rusta 25 Prosta funkcja 28 Pisanie i uruchamianie testów 29 Obsługa argumentów wiersza poleceń 30 Prosty serwer web 34 Programowanie współbieżne 41 Czym jest zbiór Mandelbrota? 42 Parsowanie argumentów wiersza poleceń 46 Odwzorowanie pikseli na liczby zespolone 48 Rysowanie zbioru 50 Zapis obrazu do pliku 51 Program Mandelbrota działający współbieżnie 53 Uruchomienie programu 57 Przezroczyste bezpieczeństwo 57 3. Typy proste 59 Typy maszynowe 62 Typy całkowite 62 Typy zmiennoprzecinkowe 65 Typ logiczny 67 Typ znakowy 67 Krotki 69 Typy wskaźnikowe 71 Referencje 71 Pudełka 72 Wskaźniki niechronione 72 Tablice, wektory i podzbiory 72 Tablice 73 Wektory 74 Dodawanie pojedynczych elementów do wektora 77 Podzbiory 77 Typ String 79 Literały łańcuchowe 79 Łańcuchy bajtów 80 Łańcuchy znaków w pamięci 80 Typ String 82 Podstawowe cechy typu String 83 Inne typy znakowe 83 4. Reguła własności 85 Reguła własności 87 Przeniesienie własności 91 Więcej operacji związanych z przeniesieniem własności 96 Przeniesienie własności a przepływ sterowania 97 Przeniesienie własności a struktury indeksowane 98 Typy kopiowalne 100 Rc i Arc: własność współdzielona 103 5. Referencje 107 Referencje jako wartości 111 Referencje Rusta kontra referencje C++ 111 Referencje a operacja przypisania 112 Referencje do referencji 112 Porównywanie referencji 113 Referencje nigdy nie są puste 114 Referencje do wyrażeń 114 Referencje do podzbiorów i zestawów metod 115 Bezpieczeństwo referencji 115 Referencja do zmiennej lokalnej 115 Parametry w postaci referencji 118 Referencje jako argumenty 120 Referencja jako wartość zwracana 121 Struktura zawierająca referencje 122 Odrębny cykl życia 124 Pomijanie parametrów cyklu życia 125 Referencje współdzielone kontra mutowalne 127 Walka ze sztormem na morzu obiektów 134 6. Wyrażenia 137 Język wyrażeń 137 Bloki kodu i średniki 138 Deklaracje 140 if i match 141 if let 143 Pętle 144 Wyrażenie return 146 Analiza przepływu sterowania 146 Wywołania funkcji i metod 148 Pola i elementy 149 Operatory referencji 150 Operatory arytmetyczne, bitowe, porównania i logiczne 150 Przypisanie 151 Rzutowanie typów 152 Domknięcia 153 Priorytety operatorów 153 Co dalej? 156 7. Obsługa błędów 157 Błąd panic 157 Odwinięcie stosu 158 Przerywanie procesu 159 Typ Result 160 Przechwytywanie błędów 160 Alias typu Result 161 Wyświetlanie informacji o błędach 162 Propagacja błędów 163 Jednoczesna obsługa błędów różnych typów 164 Błędy, które nie powinny się zdarzyć 166 Ignorowanie błędów 167 Obsługa błędów w funkcji main() 167 Definiowanie własnego typu błędu 168 Co daje nam typ Result? 169 8. Paczki i moduły 171 Paczki 171 Profile budowania 174 Moduły 174 Umieszczanie modułów w oddzielnych plikach 175 Ścieżki i importy 177 Standardowe preludium 179 Podstawowe składniki modułów 179 Zmiana programu w bibliotekę 181 Katalog src/bin 183 Atrybuty 184 Testy i dokumentacja 186 Testy integracyjne 188 Dokumentacja 189 Doc-testy 191 Definiowanie zależności 193 Wersje 194 Cargo.lock 195 Publikowanie paczek na stronie crates.io 196 Obszary robocze 198 Więcej fajnych rzeczy 199 9. Struktury 201 Struktury z polami nazywanymi 201 Struktury z polami numerowanymi 204 Struktury puste 204 Reprezentacja struktur w pamięci 205 Definiowanie metod w bloku impl 206 Struktury generyczne 209 Struktury z parametrem cyklu życia 210 Dziedziczenie standardowych zestawów metod 211 Zmienność wewnętrzna 212 10. Typy wyliczeniowe i wzorce 217 Typy wyliczeniowe 218 Typy wyliczeniowe zawierające dane 220 Typ wyliczeniowy w pamięci 221 Większe struktury danych stosujące typy wyliczeniowe 222 Generyczne typy wyliczeniowe 223 Wzorce 226 Literały, zmienne i symbole wieloznaczne 228 Wzorce w postaci krotki lub struktury 230 Wzorce z referencjami 231 Dopasowanie do wielu wartości 233 Warunki dodatkowe 234 Wzorce @ 235 Gdzie używamy wzorców 235 Wypełnianie drzewa binarnego 236 Podsumowanie 238 11. Zestawy metod (interfejsy) i typy generyczne 239 Stosowanie zestawów metod 241 Obiekt implementujący zestaw metod 242 Struktura obiektu implementującego 243 Funkcje generyczne 244 Na co się zdecydować? 247 Definiowanie i implementacja zestawów metod 249 Metody domyślne 250 Implementacja zestawów metod dla istniejących już typów 251 Zestaw metod a słowo kluczowe Self 252 Rozszerzanie zestawu metod (dziedziczenie) 254 Metody statyczne 254 W pełni kwalifikowana nazwa metody 255 Zestawy metod definiujące relacje między typami 257 Typy powiązane 257 Generyczny zestaw metod (czyli jak działa przeciążanie operatorów) 260 Zaprzyjaźnione zestawy metod (czyli jak działa generator liczb pseudolosowych) 261 Inżynieria wsteczna ograniczeń 263 12. Przeciążanie operatorów 267 Operatory arytmetyczne i bitowe 268 Operatory jednoargumentowe 270 Operatory dwuargumentowe 271 Operatory przypisania złożonego 272 Test równości 273 Porównania szeregujące 276 Interfejsy Index i IndexMut 278 Inne operatory 281 13. Interfejsy narzędziowe 283 Drop 284 Sized 287 Clone 289 Copy 290 Deref i DerefMut 291 Default 294 AsRef i AsMut 296 Borrow i BorrowMut 297 From i Into 299 ToOwned 301 Borrow i ToOwned w działaniu 302 14. Domknięcia 305 Przechwytywanie zmiennych 306 Domknięcia, które pożyczają wartość 307 Domknięcia, które przejmują własność 308 Typy funkcji i domknięć 309 Domknięcia a wydajność 311 Domknięcia a bezpieczeństwo 313 Domknięcia, które zabijają 313 FnOnce 314 FnMut 315 Funkcje zwrotne 317 Skuteczne korzystanie z domknięć 320 15. Iteratory 323 Iterator i IntoIterator 324 Tworzenie iteratorów 326 Metody iter i iter_mut 326 Implementacje interfejsu IntoIterator 326 Metoda drain 328 Inne źródła iteratorów 329 Adaptery 330 map i filter 330 filter_map i flat_map 333 scan 335 take i take_while 335 skip i skip_while 336 peekable 337 fuse 338 Iteratory obustronne i rev 339 inspect 340 chain 341 enumerate 341 zip 342 by_ref 342 cloned 344 cycle 344 Konsumowanie iteratorów 345 Proste agregaty: count, sum i product 345 max i min 345 max_by i min_by 346 max_by_key i min_by_key 346 Porównywanie sekwencji elementów 347 any i all 348 position, rposition oraz ExactSizeIterator 348 fold 349 nth 349 last 350 find 350 Tworzenie kolekcji: collect i FromIterator 350 Zestaw metod Extend 352 partition 353 Implementacja własnych iteratorów 354 16. Kolekcje 359 Przegląd kolekcji 360 Vec 361 Dostęp do elementów 362 Iteracja 363 Zwiększanie i zmniejszanie wielkości wektora 364 Łączenie 367 Podział 367 Zamiana 369 Sortowanie i wyszukiwanie 370 Porównywanie podzbiorów 371 Elementy losowe 372 Reguły zapobiegające konfliktom w czasie iteracji 372 VecDeque 373 LinkedList 375 BinaryHeap 376 HashMapi BTreeMap 377 Entry 380 Iterowanie map 381 HashSeti BTreeSet 382 Iteracja zbioru 383 Kiedy równe wartości są różne 383 Operacje dotyczące całego zbioru 383 Haszowanie 385 Niestandardowe algorytmy haszujące 386 Kolekcje standardowe i co dalej? 387 17. Tekst i łańcuchy znaków 389 Podstawy Unicode 389 ASCII, Latin-1 i Unicode 390 UTF-8 390 Kierunek tekstu 392 Znaki (typ char) 392 Klasyfikacja znaków 392 Obsługa cyfr 393 Zmiana wielkości liter 394 Konwersja znaku do i z liczby całkowitej 394 Typy String i str 395 Tworzenie łańcuchów znaków 396 Prosta inspekcja 396 Dołączanie i wstawianie tekstu 397 Usuwanie tekstu 398 Konwencje nazewnicze dotyczące wyszukiwania i iterowania 399 Wyszukiwanie tekstu i wzorce 399 Wyszukiwanie i zamiana 400 Iterowanie tekstu 401 Obcinanie 403 Zmiana wielkości liter w łańcuchach 403 Konwersja tekstu do wartości innego typu 404 Konwersja wartości innego typu do tekstu 404 Tworzenie referencji innego typu 405 Tekst jako UTF-8 406 Tworzenie tekstu na podstawie danych UTF-8 406 Alokacja warunkowa 407 Łańcuchy znaków jako kolekcje generyczne 409 Formatowanie wartości 410 Formatowanie tekstu 411 Formatowanie liczb 412 Formatowanie innych typów 414 Formatowanie wartości z myślą o debugowaniu 415 Formatowanie i debugowanie wskaźników 416 Wiązanie argumentów za pomocą indeksu i nazwy 416 Dynamiczne definiowanie długości i precyzji 417 Formatowanie własnych typów 417 Użycie języka formatowania we własnym kodzie 419 Wyrażenia regularne 421 Podstawowe użycie wyrażeń regularnych 421 Wyrażenia regularne w trybie leniwym 422 Normalizacja 423 Rodzaje normalizacji 424 Biblioteka unicode-normalization 425 18. Operacje wejścia/wyjścia 427 Obiekty typu reader i writer 428 Obiekty typu reader 429 Buforowany obiekt typu reader 431 Przeglądanie tekstu 432 Pobieranie tekstu 434 Obiekty typu writer 435 Pliki 436 Wyszukiwanie 437 Inne rodzaje obiektów reader i writer 437 Dane binarne, kompresja i serializacja 439 Pliki i katalogi 440 OsStr i Path 440 Metody typów Path i PathBuf 442 Funkcje dostępu do systemu plików 443 Odczyt zawartości katalogu 444 Funkcje bezpośrednio związane z platformą 446 Obsługa sieci 447 19. Programowanie współbieżne 451 Podział i łączenie wątków 453 spawn i join 454 Obsługa błędów w różnych wątkach 456 Współdzielenie niemutowalnych danych przez różne wątki 457 Rayon 459 Zbiór Mandelbrota raz jeszcze 461 Kanały 463 Wysyłanie wartości 464 Odczyt wartości 467 Uruchomienie potoku 468 Cechy kanałów i ich wydajność 470 Bezpieczeństwo wątków: Send i Sync 472 Współpraca iteratora i kanału 474 Potoki i co dalej? 475 Stan współdzielony mutowalny 476 Czym jest muteks? 476 Mutex 478 mut i Mutex 480 Dlaczego Mutex to nie zawsze dobry pomysł? 480 Zakleszczenie (deadlock) 481 Zatruty muteks 482 Kanały z wieloma nadawcami stosujące muteksy 482 Blokady odczytu/zapisu (RwLock) 483 Zmienne warunkowe (Condvar) 485 Typy atomowe 485 Zmienne globalne 487 Rust i pisanie programów wielowątkowych 489 20. Makra 491 Podstawy 492 Rozwijanie makra 493 Niezamierzone skutki 495 Powtórzenia 496 Makra wbudowane 498 Debugowanie makr 499 Makro json! 500 Typy składników 501 Makra a rekurencja 504 Makra i zestawy metod 505 Zakres i higiena 507 Import i eksport makr 509 Unikanie błędów składniowych w procesie dopasowywania 511 macro_rules! i co dalej? 512 21. Kod niebezpieczny 513 Dlaczego niebezpieczny? 514 Bloki unsafe 515 Przykład: skuteczny typ łańcucha znaków ASCII 516 Funkcje unsafe 518 Kod niebezpieczny czy funkcja niebezpieczna? 520 Niezdefiniowane zachowanie 521 Zestawy metod unsafe 523 Wskaźniki niechronione 525 Bezpieczne tworzenie dereferencji wskaźników niechronionych 528 Przykład: RefWithFlag 529 Wskaźniki dopuszczające wartość pustą 531 Rozmiary i rozmieszczanie typów 531 Operacje arytmetyczne na wskaźnikach 532 Wchodzenie do pamięci i wychodzenie z pamięci 534 Przykład: GapBuffer 537 Bezpieczeństwo błędów paniki w kodzie niebezpiecznym 543 Funkcje obce: wywoływanie kodu C i C++ w środowisku Rusta 544 Wyszukiwanie wspólnych reprezentacji danych 544 Deklarowanie obcych funkcji i zmiennych 547 Korzystanie z funkcji i bibliotek 549 Interfejs niechroniony dla biblioteki libgit2 552 Interfejs bezpieczny dla biblioteki libgit2 558
Sygnatura czytelni BWEAiI: XII O 16
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149914 N (1 egz.)
Książka
W koszyku
Wydanie 2. odnosi się do oryginału. W książce rok wydania: 2023, data wpływu egzemplarza obowiązkowego: 2022.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Indeks.
Dla programistów systemowych i twórców aplikacji.
Pierwsze spotkanie z Rustem Typy proste Reguła własności i przenoszenie własności Referencje Wyrażenia Obsługa błędów Paczki i moduły Struktury Typy wyliczeniowe i wzorce Zestawy metod i typy generyczne Przeciążanie operatorów Interfejsy narzędziowe Domknięcia Iteratory Kolekcje Tekst i łańcuchy znaków Operacje wejścia - wyjścia Programowanie asynchroniczne Makra Kod niebezpieczny Funkcje obce
Sygnatura czytelni BWEAiI: XII Ń 93
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153042 (1 egz.)
Książka
W koszyku
Tytuł oryginału: Mastering machine learning algorithms.
Na okładce nazwa wydawcy oryginału: Packt.
Na książce także ISBN oryginału: 9781788621113.
Indeks.
Rozdział 1. Podstawy modelu uczenia maszynowego 19 Modele a dane 20 Środkowanie i wybielanie 21 Zbiory uczące i walidacyjne 24 Cechy modelu uczenia maszynowego 29 Pojemność modelu 29 Obciążenie estymatora 32 Wariancja estymatora 35 Funkcje straty i kosztu 39 Przykładowe funkcje kosztu 43 Regularyzacja 45 Rozdział 2. Wprowadzenie do uczenia półnadzorowanego 51 Uczenie półnadzorowane 52 Uczenie transdukcyjne 53 Uczenie indukcyjne 53 Założenia w uczeniu półnadzorowanym 53 Generatywne mieszaniny gaussowskie 56 Przykład generatywnej mieszaniny gaussowskiej 58 Algorytm kontrastowy pesymistycznego szacowania wiarygodności 63 Przykład zastosowania algorytmu CPLE 65 Półnadzorowane maszyny wektorów nośnych (S3VM) 68 Przykładowy algorytm maszyny S3VM 71 Transdukcyjne maszyny wektorów nośnych 76 Przykład maszyny TSVM 77 Rozdział 3. Uczenie półnadzorowane bazujące na grafach 85 Propagacja etykiet 86 Przykład zastosowania algorytmu propagacji etykiet 89 Propagacja etykiet w bibliotece Scikit-Learn 91 Rozprzestrzenianie etykiet 94 Przykład zastosowania algorytmu rozprzestrzeniania etykiet 95 Propagacja etykiet na bazie błądzenia losowego Markowa 97 Przykład propagacji etykiet na podstawie błądzenia losowego Markowa 98 Uczenie rozmaitościowe 101 Algorytm Isomap 102 Osadzanie lokalnie liniowe 106 Osadzanie widmowe Laplace'a 109 Algorytm t-SNE 111 Rozdział 4. Sieci bayesowskie i ukryte modele Markowa 115 Prawdopodobieństwa warunkowe i twierdzenie Bayesa 116 Sieci bayesowskie 118 Próbkowanie w sieci bayesowskiej 119 Przykład próbkowania za pomocą biblioteki PyMC3 129 Ukryte modele Markowa 133 Algorytm wnioskowania ekstrapolacyjno-interpolacyjnego 134 Algorytm Viterbiego 141 Rozdział 5. Algorytm EM i jego zastosowania 145 Uczenie metodami MLE i MAP 146 Algorytm EM 148 Przykład szacowania parametrów 151 Mieszanina gaussowska 154 Przykład implementacji algorytmu mieszanin gaussowskich w bibliotece Scikit-Learn 157 Analiza czynnikowa (FA) 159 Przykład zastosowania analizy czynnikowej w bibliotece Scikit-Learn 164 Analiza głównych składowych (PCA) 167 Przykład zastosowania analizy PCA w bibliotece Scikit-Learn 173 Analiza składowych niezależnych (ICA) 175 Przykładowa implementacja algorytmu FastICA w bibliotece Scikit-Learn 178 Jeszcze słowo o ukrytych modelach Markowa 180 Rozdział 6. Uczenie hebbowskie i mapy samoorganizujące 183 Reguła Hebba 184 Analiza reguły kowariancji 188 Stabilizacja wektora wag i reguła Oji 192 Sieć Sangera 193 Przykład zastosowania sieci Sangera 196 Sieć Rubnera-Tavana 199 Przykład zastosowania sieci Rubnera-Tavana 203 Mapy samoorganizujące 205 Przykład zastosowania mapy SOM 208 Rozdział 7. Algorytmy klasteryzacji 213 Algorytm k-najbliższych sąsiadów 213 Drzewa KD 217 Drzewa kuliste 218 Przykład zastosowania algorytmu KNN w bibliotece Scikit-Learn 220 Algorytm centroidów 223 Algorytm k-means++ 225 Przykład zastosowania algorytmu centroidów w bibliotece Scikit-Learn 227 Algorytm rozmytych c-średnich 235 Przykład zastosowania algorytmu rozmytych c-średnich w bibliotece Scikit-Fuzzy 239 Klasteryzacja widmowa 242 Przykład zastosowania klasteryzacji widmowej w bibliotece Scikit-Learn 246 Rozdział 8. Uczenie zespołowe 249 Podstawy uczenia zespołów 249 Lasy losowe 251 Przykład zastosowania lasu losowego w bibliotece Scikit-Learn 257 Algorytm AdaBoost 260 AdaBoost.SAMME 264 AdaBoost.SAMME.R 266 AdaBoost.R2 268 Przykład zastosowania algorytmu AdaBoost w bibliotece Scikit-Learn 271 Wzmacnianie gradientowe 275 Przykład wzmacniania gradientowego drzew w bibliotece Scikit-Learn 279 Zespoły klasyfikatorów głosujących 282 Przykład zastosowania klasyfikatorów głosujących 283 Uczenie zespołowe jako technika doboru modeli 285 Rozdział 9. Sieci neuronowe w uczeniu maszynowym 287 Podstawowy sztuczny neuron 288 Perceptron 289 Przykład zastosowania perceptronu w bibliotece Scikit-Learn 292 Perceptrony wielowarstwowe 295 Funkcje aktywacji 296 Algorytm propagacji wstecznej 299 Przykład zastosowania sieci MLP w bibliotece Keras 307 Algorytmy optymalizacji 311 Perturbacja gradientu 312 Algorytmy momentum i Nesterova 312 RMSProp 313 Adam 315 AdaGrad 316 AdaDelta 317 Regularyzacja i porzucanie 318 Porzucanie 320 Normalizacja wsadowa 326 Przykład zastosowania normalizacji wsadowej w bibliotece Keras 328 Rozdział 10. Zaawansowane modele neuronowe 333 Głębokie sieci splotowe 334 Operacje splotu 335 Warstwy łączące 344 Inne przydatne warstwy 347 Przykłady stosowania głębokich sieci splotowych w bibliotece Keras 348 Sieci rekurencyjne 356 Algorytm propagacji wstecznej w czasie (BPTT) 357 Jednostki LSTM 360 Jednostki GRU 365 Przykład zastosowania sieci LSTM w bibliotece Keras 367 Uczenie transferowe 371 Rozdział 11. Autokodery 375 Autokodery 375 Przykład głębokiego autokodera splotowego w bibliotece TensorFlow 377 Autokodery odszumiające 381 Autokodery rzadkie 384 Autokodery wariacyjne 386 Przykład stosowania autokodera wariacyjnego w bibliotece TensorFlow 389 Rozdział 12. Generatywne sieci przeciwstawne 393 Uczenie przeciwstawne 393 Przykład zastosowania sieci DCGAN w bibliotece TensorFlow 397 Sieć Wassersteina (WGAN) 403 Przykład zastosowania sieci WGAN w bibliotece TensorFlow 405 Rozdział 13. Głębokie sieci przekonań 409 Losowe pola Markowa 410 Ograniczone maszyny Boltzmanna 411 Sieci DBN 415 Przykład stosowania nienadzorowanej sieci DBN w środowisku Python 417 Przykład stosowania nadzorowanej sieci DBN w środowisku Python 420 Rozdział 14. Wstęp do uczenia przez wzmacnianie 423 Podstawowe terminy w uczeniu przez wzmacnianie 423 Środowisko 425 Polityka 429 Iteracja polityki 430 Iteracja polityki w środowisku szachownicy 434 Iteracja wartości 438 Iteracja wartości w środowisku szachownicy 439 Algorytm TD(0) 442 Algorytm TD(0) w środowisku szachownicy 445 Rozdział 15. Zaawansowane algorytmy szacowania polityki 451 Algorytm TD(λ) 452 Algorytm TD(λ) w bardziej skomplikowanym środowisku szachownicy 456 Algorytm aktor-krytyk TD(0) w środowisku szachownicy 462 Algorytm SARSA 467 Algorytm SARSA w środowisku szachownicy 469 Q-uczenie 472 Algorytm Q-uczenia w środowisku szachownicy 473 Algorytm Q-uczenia za pomocą sieci neuronowej 475
Sygnatura czytelni BWEAiI: XII Ł 227
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148489 N (1 egz.)
Książka
W koszyku
Na s. tyt., okł. i grzb.: Wyd. 3 - odnosi się do wyd. oryg.
Na okł.: Przygotuj aplikację na najpopularniejszą platformę mobilną! Co czyni Adroida wyjątkową platformą? Jak zaprojektować interfejs użytkownika? Jak skorzystać z zaawansowanych usług geolokalizacji i dostępu do sieci?
Bibliogr. s. [293]. Indeks.
Sygnatura czytelni BWEAiI: XII R 9
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 135029 (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 130130 N (1 egz.)
Brak okładki
Książka
W koszyku
W copyright rok 2024, data wpływu egzemplarza obowiązkowego: 2023. W książce także ISBN oryginału.
Dla osób znających środowisko Power BI.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
w opracowaniu: sygn. 155505 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Building evolutionary architectures : support constant change.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Indeks.
1. Architektura oprogramowania (15) Architektura ewolucyjna (17) W jaki sposób możemy planować długoterminowo, skoro wszystko wokół zmienia się przez cały czas? W jaki sposób możemy po stworzeniu architektury zabezpieczyć ją przed stopniową degradacją? (21) Zmiana przyrostowa (22) Zmiana kierowana (23) Wielowymiarowość architektury (24) Prawo Conwaya (27) Dlaczego "ewolucyjna"? (31) 2. Funkcje dopasowania (33) Czym jest funkcja dopasowania? (35) Kategorie (38) Atomowe/holistyczne (38) Wywoływane/ciągłe (39) Statyczne/dynamiczne (39) Zautomatyzowane/ręczne (40) Czasowe (41) Zamierzone/wyłaniające się (41) Wyspecjalizowane (41) Wczesne rozpoznawanie funkcji dopasowania (42) Przegląd funkcji dopasowania (44) 3. Projektowanie zmian przyrostowych (47) Elementy budulcowe (51) Testowalność (53) Potoki wdrażania (54) Kombinacje poszczególnych kategorii funkcji dopasowania (59) Analiza przypadku: Restrukturyzowanie architektury za pomocą 60 wdrożeń dziennie (61) Sprzeczne cele (64) Analiza przypadku: Dodawanie funkcji dopasowania do usługi fakturowania w firmie Nie Najgorsze Patenty (65) Projektowanie zorientowane na hipotezy i dane (68) Analiza przypadku: Co przenosić? (70) 4. Sprzężenie architektury (73) Modułowość (73) Kwanty architektury i ziarnistość (74) Ewoluowalność stylów architektury (78) Bryła błotna (79) Monolity (80) Architektury sterowane zdarzeniami (89) Architektury zorientowane na usługi (95) Architektury "bezserwerowe" (110) Kontrolowanie rozmiaru kwantu (112) Analiza przypadku: Zabezpieczanie przed cyklicznymi zależnościami pomiędzy składnikami (113) 5. Dane ewolucyjne (117) Projektowanie ewolucyjnej bazy danych (117) Ewoluowanie schematów (118) Integracja współdzielonych baz danych (120) Nieprawidłowe sprzęganie danych (125) Zatwierdzanie dwufazowe transakcji (125) Wiek i jakość danych (128) Analiza przypadku: Ewolucja trasowania w firmie Nie Najgorsze Patenty (130) 6. Tworzenie ewoluowalnych architektur (133) Mechanika (133) 1. Identyfikacja wymiarów podlegających ewolucji (134) 2. Definiowanie funkcji dopasowania dla każdego wymiaru (134) 3. Stosowanie potoku wdrażania do automatyzacji funkcji dopasowania (134) Nowe projekty (135) Modernizowanie istniejących architektur (136) Prawidłowe sprzęganie i spójność (136) Praktyki inżynieryjne (137) Funkcje dopasowania (137) Skutki stosowania modelu COTS (138) Migrowanie architektur (140) Etapy migracji (141) Ewoluowanie oddziaływań pomiędzy modułami (144) Wskazówki dotyczące tworzenia architektur ewolucyjnych (148) Usuń niepotrzebną zmienność (148) Zagwarantuj odwracalność decyzji (150) Przedkładaj ewoluowalność nad przewidywalność (152) Twórz warstwy przeciwdegradacyjne (153) Analiza przypadku: Szablony usług (156) Tworzenie architektur ofiarniczych (157) Minimalizuj wpływ zmian zewnętrznych (159) Aktualizowanie bibliotek i szkieletów (161) Preferuj dostarczanie ciągłe do migawek (162) Wersjonuj usługi wewnętrznie (164) Analiza przypadku: Ewoluowanie systemu oceniania w firmie Nie Najgorsze Patenty (165) 7. Pułapki i antywzorce architektury ewolucyjnej (169) Architektura techniczna (169) Antywzorzec: Monopolista (169) Pułapka: Nieszczelne abstrakcje (171) Antywzorzec: Pułapka ostatnich 10% (174) Antywzorzec: Nadużywanie wielokrotnego wykorzystywania kodu (175) Analiza przypadku: Wieloużywalność w firmie Nie Najgorsze Patenty (178) Pułapka: Projektowanie zorientowane na CV (179) Zmiany przyrostowe (180) Antywzór: Nieprawidłowe zarządzanie (180) Analiza przypadku: Zarządzanie wyważone w firmie Nie Najgorsze Patenty (183) Pułapka: Brak szybkości wydawania (183) Kwestie biznesowe (185) Pułapka: Dostosowywanie produktu (186) Antywzorzec: Raportowanie (187) Pułapka: Horyzonty planowania (189) 8. Stosowanie architektury ewolucyjnej w praktyce (191) Czynniki organizacyjne (191) Zespoły przekrojowe (191) Zorganizowane wokół umiejętności biznesowych (193) Produkt ponad projekt (194) Radzenie sobie ze zmianami zewnętrznymi (196) Związki pomiędzy członkami zespołu (198) Parametry sprzęgania zespołów (199) Kultura (199) Kultura eksperymentowania (201) Dyrektor finansowy i przygotowywanie budżetu (203) Tworzenie korporacyjnych funkcji dopasowania (205) Analiza przypadku: Firma Nie Najgorsze Patenty jako platforma (206) Od czego zacząć? (206) Łatwo osiągalny cel (207) Największa wartość (207) Testowanie (208) Infrastruktura (208) Analiza przypadku: Architektura korporacyjna w firmie Nie Najgorsze Patenty (209) Stan przyszły? (211) Funkcje dopasowania wykorzystujące sztuczną inteligencję (211) Testowanie generatywne (212) Dlaczego (lub dlaczego nie)? (212) Dlaczego firma powinna zdecydować o tworzeniu architektury ewolucyjnej? (212) Analiza przypadku: Skala wybiórcza w firmie Nie Najgorsze Patenty (215) Dlaczego firma miałaby rezygnować z tworzenia architektury ewolucyjnej? (217) Przekonywanie innych (219) Analiza przypadku: Judo doradcze (219) Kwestia biznesowa (220) "Przyszłość jest teraz..." (220) Szybkie zmiany bez psucia architektury (220) Mniejsze ryzyko (221) Nowe możliwości (221) Budowanie architektur ewolucyjnych (221)
Sygnatura czytelni BWEAiI: XII J 82
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146669 N (1 egz.)
Książka
W koszyku
Wydanie II - dotyczy oryginału.
Na okładce także nazwa wydawcy oryginału: O'Reilly.
Mechanika Ewoluowanie architektury oprogramowania Architektura ewolucyjna Zmiana kierowana przyrostowa Wielowymiarowość architektury W jaki sposób możemy po stworzeniu architektury zabezpieczyć ją przed degradacją2. Funkcje dopasowania Kategorie Zakres: atomowe/holistyczne Miarowość: wywoływane/ciągłe/czasowe Rezultat: statyczne/dynamiczne Wywołanie: zautomatyzowane/ręczne Proaktywność: zamierzone/wyłaniające się Pokrycie: funkcje dopasowania specyficzne dla domeny? Kto pisze funkcje dopasowania? Gdzie znajduje się platforma testowania moich funkcji dopasowania? Rezultaty a implementacje Zmiana przyrostowa Potoki wdrażania : dodawanie funkcji dopasowania do usługi fakturowania w firmie Kapitalne Patenty : sprawdzanie spójności API w automatycznych kompilacjach Automatyzacja zarządzania architekturą Funkcje dopasowania w zarządzaniu architekturą Funkcje dopasowania na poziomie kodu Sprzężenie aferentne i eferentne Abstrakcyjność, niestabilność i odległość od głównej sekwencji Kierunkowość importowanych elementów Złożoność cyklomatyczna i zarządzanie przez kierowanie zespołami Kompletne narzędzia Legalność otwartych bibliotek A11y i inne obsługiwane parametry architektury ArchUnit Lintery do zarządzania kodem : funkcja dopasowania dostępności testowanie obciążenia wraz z wydaniami kanarkowymi Funkcje dopasowania, z których już korzystasz Architektura integracji Zarządzanie komunikacją w mikrousługach DevOps Architektura korporacyjna: restrukturyzacja architektury podczas 60 wdrożeń dziennie Funkcje dopasowania wierności Dokumentowanie funkcji dopasowania Splątanie Skrzyżowanie splątania z ograniczonym kontekstem Kwanty architektury i ziarnistość Wysoce funkcjonalna spójność Znaczne sprzężenie statyczne Sprzężenie dynamiczne kwantu Kontrakty : mikrousługi jako architektura ewolucyjna Wzorce wieloużywalności kodu Skuteczna wieloużywalność = abstrakcja + mała ulotność Przyczepy i siatka usług: ortogonalne sprzężenie operacyjne Siatka danych: sprzężenie ortogonalne danych. Dane ewolucyjne Projektowanie ewolucyjnej bazy danych Ewoluowanie schematów Integracja współdzielonych baz danych Nieprawidłowe nakładanie się danych Zatwierdzanie dwufazowe transakcji Wiek i jakość danych : ewolucja trasowania w firmie Kapitalne Patenty Od funkcji natywnej do funkcji dopasowania
Zgodność powiązań Duplikacja danych Zastępowanie wyzwalaczy i przechowywanych procedur Analiza przypadku: ewoluowanie od architektury relacyjnej do nierelacyjnej Tworzenie ewoluowalnych architektur Zasady architektury ewolucyjnej Projektuj i twórz z myślą o ewoluowalności Prawo Postela Projektuj z myślą o testowalności Prawo Conwaya Mechanika Identyfikacja wymiarów podlegających ewolucji Definiowanie funkcji dopasowania dla każdego wymiaru Stosowanie potoku wdrażania do automatyzacji funkcji dopasowania Modernizowanie istniejących architektur Prawidłowe sprzężenie i spójność Skutki stosowania modelu COTS Migrowanie architektur Etapy migracji Ewoluowanie oddziaływań pomiędzy modułami Wskazówki dotyczące tworzenia architektur ewolucyjnych Usuń niepotrzebną zmienność Zagwarantuj odwracalność decyzji Przedkładaj ewoluowalność nad przewidywalność Twórz warstwy przeciwdegradacyjne Tworzenie architektur ofiarniczych Minimalizuj wpływ zmian zewnętrznych Aktualizowanie bibliotek i szkieletów Wersjonuj usługi wewnętrznie ewoluowanie systemu oceniania w firmie Kapitalne Patenty Architektura sterowana funkcjami dopasowania Pułapki i antywzorce architektury ewolucyjnej Architektura techniczna Antywzorzec: pułapka ostatnich 10% i mało kodu/ brak kodu : wieloużywalność w firmie Kapitalne Patenty Antywzorzec: monopolista Pułapka: nieszczelne abstrakcje Pułapka: projektowanie zorientowane na CV Zmiany przyrostowe Antywzór: nieprawidłowe zarządzanie : zarządzanie „na styk” w firmie Kapitalne Patenty Pułapka: brak szybkości wydawania Kwestie biznesowe Pułapka: dostosowywanie produktu Antywzorzec: raportowanie na wierzchu systemu rekordów Pułapka: nadmiernie długie horyzonty planowania Stosowanie architektury ewolucyjnej w praktyce Czynniki organizacyjne Nie walcz z prawem Conwaya Parametry sprzężenia zespołów Kultura Kultura eksperymentowania Dyrektor finansowy i przygotowywanie budżetu Kwestia biznesowa Projektowanie zorientowane na hipotezy i dane Funkcje dopasowania jako media eksperymentalne Tworzenie korporacyjnych funkcji dopasowania : podatność zabezpieczeń na ataki dnia zerowego Wyznaczanie ograniczonych kontekstów w istniejącej architekturze integracji Testowanie Infrastruktura : architektura korporacyjna w firmie Kapitalne Patenty Funkcje dopasowania wykorzystujące sztuczną inteligencję Testowanie generatywne
Sygnatura czytelni BWEAiI: XII A 102
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154650 N (1 egz.)
Książka
W koszyku
Bibliografia na stronach 217-223. Indeks.
CZĘŚĆ I. NASZE ODKRYCIA 1. Przyspieszenie 27 2. Mierzenie wydajności 35 3. Mierzenie i zmienianie kultury 49 4. Praktyki techniczne 59 5. Architektura 73 6. Integracja bezpieczeństwa informacji z cyklem życia dostarczania oprogramowania 81 7. Praktyki zarządcze 85 8. Wytwarzanie produktu 91 9. Podtrzymywanie zapału do pracy 97 10. Satysfakcja, tożsamość i zaangażowanie pracownika 107 11. Liderzy i menedżerowie 119 CZĘŚĆ II. BADANIA 12. Podstawy naukowe badań opisanych w książce 131 13. Wprowadzenie do psychometrii 141 14. Dlaczego ankieta? 151 15. Dane wykorzystane w projekcie 161 CZĘŚĆ III. TRANSFORMACJA 16. Wysokowydajne przywództwo i zarządzanie 169 A. Zdolności napędzające usprawnienia 189 B. Statystyki 197 C. Metody statystyczne użyte w naszych badaniach 207
Sygnatura czytelni BMW: VI Ę 100 (nowy)
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149918 N (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow / Aurélien Géron ; tłumaczenie: Krzysztof Sawka. - Wydanie II, aktualizacja do modułu TensorFlow 2. - Gliwice : Helion, copyright 2020. - 764, [4] strony : ilustracje ; 25 cm.
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
CZĘŚĆ I. PODSTAWY UCZENIA MASZYNOWEGO 25 1. Krajobraz uczenia maszynowego 27 Czym jest uczenie maszynowe? 28 Dlaczego warto korzystać z uczenia maszynowego? 28 Przykładowe zastosowania 31 Rodzaje systemów uczenia maszynowego 33 Uczenie nadzorowane i uczenie nienadzorowane 34 Uczenie wsadowe i uczenie przyrostowe 40 Uczenie z przykładów i uczenie z modelu 43 Główne problemy uczenia maszynowego 48 Niedobór danych uczących 50 Niereprezentatywne dane uczące 50 Dane kiepskiej jakości 51 Nieistotne cechy 52 Przetrenowanie danych uczących 52 Niedotrenowanie danych uczących 54 Testowanie i ocenianie 55 Strojenie hiperparametrów i dobór modelu 55 Niezgodność danych 56 2. Nasz pierwszy projekt uczenia maszynowego 59 Praca z rzeczywistymi danymi 59 Przeanalizuj całokształt projektu 61 Określ zakres problemu 61 Wybierz metrykę wydajności 63 Sprawdź założenia 65 Zdobądź dane 65 Stwórz przestrzeń roboczą 66 Pobierz dane 68 Rzut oka na strukturę danych 70 Stwórz zbiór testowy 74 Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje 78 Wizualizowanie danych geograficznych 78 Poszukiwanie korelacji 80 Eksperymentowanie z kombinacjami atrybutów 83 Przygotuj dane pod algorytmy uczenia maszynowego 84 Oczyszczanie danych 84 Obsługa tekstu i atrybutów kategorialnych 87 Niestandardowe transformatory 89 Skalowanie cech 90 Potoki transformujące 90 Wybór i uczenie modelu 92 Trenowanie i ocena modelu za pomocą zbioru uczącego 92 Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego 93 Wyreguluj swój model 96 Metoda przeszukiwania siatki 96 Metoda losowego przeszukiwania 98 Metody zespołowe 98 Analizuj najlepsze modele i ich błędy 98 Oceń system za pomocą zbioru testowego 99 Uruchom, monitoruj i utrzymuj swój system 100 Teraz Twoja kolej! 103 3. Klasyfikacja 105 Zbiór danych MNIST 105 Uczenie klasyfikatora binarnego 107 Miary wydajności 108 Pomiar dokładności za pomocą sprawdzianu krzyżowego 108 Macierz pomyłek 110 Precyzja i pełność 111 Kompromis pomiędzy precyzją a pełnością 112 Wykres krzywej ROC 116 Klasyfikacja wieloklasowa 119 Analiza błędów 121 Klasyfikacja wieloetykietowa 124 Klasyfikacja wielowyjściowa 125 4. Uczenie modeli 129 Regresja liniowa 130 Równanie normalne 131 Złożoność obliczeniowa 134 Gradient prosty 135 Wsadowy gradient prosty 138 Stochastyczny spadek wzdłuż gradientu 141 Schodzenie po gradiencie z minigrupami 143 Regresja wielomianowa 145 Krzywe uczenia 146 Regularyzowane modele liniowe 150 Regresja grzbietowa 150 Regresja metodą LASSO 153 Metoda elastycznej siatki 155 Wczesne zatrzymywanie 156 Regresja logistyczna 157 Szacowanie prawdopodobieństwa 158 Funkcje ucząca i kosztu 159 Granice decyzyjne 160 Regresja softmax 162 5. Maszyny wektorów nośnych 167 Liniowa klasyfikacja SVM 167 Klasyfikacja miękkiego marginesu 168 Nieliniowa klasyfikacja SVM 170 Jądro wielomianowe 171 Cechy podobieństwa 172 Gaussowskie jądro RBF 173 Złożoność obliczeniowa 175 Regresja SVM 175 Mechanizm działania 177 Funkcja decyzyjna i prognozy 177 Cel uczenia 178 Programowanie kwadratowe 180 Problem dualny 181 Kernelizowane maszyny SVM 182 Przyrostowe maszyny SVM 185 6. Drzewa decyzyjne 187 Uczenie i wizualizowanie drzewa decyzyjnego 187 Wyliczanie prognoz 188 Szacowanie prawdopodobieństw przynależności do klas 190 Algorytm uczący CART 191 Złożoność obliczeniowa 192 Wskaźnik Giniego czy entropia? 192 Hiperparametry regularyzacyjne 193 Regresja 194 Niestabilność 196 7. Uczenie zespołowe i losowe lasy 199 Klasyfikatory głosujące 199 Agregacja i wklejanie 202 Agregacja i wklejanie w module Scikit-Learn 203 Ocena OOB 205 Rejony losowe i podprzestrzenie losowe 206 Losowe lasy 206 Zespół Extra-Trees 207 Istotność cech 207 Wzmacnianie 209 AdaBoost 209 Wzmacnianie gradientowe 212 Kontaminacja 217 8. Redukcja wymiarowości 223 Klątwa wymiarowości 224 Główne strategie redukcji wymiarowości 225 Rzutowanie 225 Uczenie rozmaitościowe 227 Analiza PCA 228 Zachowanie wariancji 229 Główne składowe 230 Rzutowanie na d wymiarów 231 Implementacja w module Scikit-Learn 232 Współczynnik wariancji wyjaśnionej 232 Wybór właściwej liczby wymiarów 232 Algorytm PCA w zastosowaniach kompresji 233 Losowa analiza PCA 234 Przyrostowa analiza PCA 235 Jądrowa analiza PCA 236 Wybór jądra i strojenie hiperparametrów 236 Algorytm LLE 239 Inne techniki redukowania wymiarowości 241 9. Techniki uczenia nienadzorowanego 243 Analiza skupień 244 Algorytm centroidów 246 Granice algorytmu centroidów 255 Analiza skupień w segmentacji obrazu 256 Analiza skupień w przetwarzaniu wstępnym 257 Analiza skupień w uczeniu półnadzorowanym 259 Algorytm DBSCAN 262 Inne algorytmy analizy skupień 265 Mieszaniny gaussowskie 266 Wykrywanie anomalii za pomocą mieszanin gaussowskich 271 Wyznaczanie liczby skupień 273 Modele bayesowskie mieszanin gaussowskich 275 Inne algorytmy służące do wykrywania anomalii i nowości 279 CZĘŚĆ II. SIECI NEURONOWE I UCZENIE GŁĘBOKIE 283 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras 285 Od biologicznych do sztucznych neuronów 286 Neurony biologiczne 287 Operacje logiczne przy użyciu neuronów 288 Perceptron 289 Perceptron wielowarstwowy i propagacja wsteczna 293 Regresyjne perceptrony wielowarstwowe 297 Klasyfikacyjne perceptrony wielowarstwowe 298 Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras 300 Instalacja modułu TensorFlow 2 301 Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego 302 Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego 311 Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego 312 Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego 316 Zapisywanie i odczytywanie modelu 318 Stosowanie wywołań zwrotnych 318 Wizualizacja danych za pomocą narzędzia TensorBoard 320 Dostrajanie hiperparametrów sieci neuronowej 323 Liczba warstw ukrytych 326 Liczba neuronów w poszczególnych warstwach ukrytych 327 Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry 328 11. Uczenie głębokich sieci neuronowych 333 Problemy zanikających/eksplodujących gradientów 334 Inicjalizacje wag Glorota i He 334 Nienasycające funkcje aktywacji 336 Normalizacja wsadowa 340 Obcinanie gradientu 346 Wielokrotne stosowanie gotowych warstw 347 Uczenie transferowe w interfejsie Keras 348 Nienadzorowane uczenie wstępne 350 Uczenie wstępne za pomocą dodatkowego zadania 350 Szybsze optymalizatory 352 Optymalizacja momentum 352 Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) 353 AdaGrad 355 RMSProp 356 Optymalizatory Adam i Nadam 357 Harmonogramowanie współczynnika uczenia 359 Regularyzacja jako sposób zapobiegania przetrenowaniu 364 Regularyzacja l1 i l2 364 Porzucanie 365 Regularyzacja typu Monte Carlo (MC) 368 Regularyzacja typu max-norm 370 Podsumowanie i praktyczne wskazówki 371 12. Modele niestandardowe i uczenie za pomocą modułu TensorFlow 375 Krótkie omówienie modułu TensorFlow 375 Korzystanie z modułu TensorFlow jak z biblioteki NumPy 379 Tensory i operacje 379 Tensory a biblioteka NumPy 381 Konwersje typów 381 Zmienne 381 Inne struktury danych 382 Dostosowywanie modeli i algorytmów uczenia 383 Niestandardowe funkcje straty 383 Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe 384 Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia 386 Niestandardowe wskaźniki 387 Niestandardowe warstwy 389 Niestandardowe modele 392 Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu 394 Obliczanie gradientów za pomocą różniczkowania automatycznego 396 Niestandardowe pętle uczenia 399 Funkcje i grafy modułu TensorFlow 402 AutoGraph i kreślenie 404 Reguły związane z funkcją TF 405 13. Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow 409 Interfejs danych 410 Łączenie przekształceń 410 Tasowanie danych 412 Wstępne przetwarzanie danych 415 Składanie wszystkiego w całość 416 Pobieranie wstępne 417 Stosowanie zestawu danych z interfejsem tf.keras 418 Format TFRecord 419 Skompresowane pliki TFRecord 420 Wprowadzenie do buforów protokołów 420 Bufory protokołów w module TensorFlow 422 Wczytywanie i analizowanie składni obiektów Example 423 Obsługa list list za pomocą bufora protokołów SequenceExample 424 Wstępne przetwarzanie cech wejściowych 425 Kodowanie cech kategorialnych za pomocą wektorów gorącojedynkowych 426 Kodowanie cech kategorialnych za pomocą wektorów właściwościowych 428 Warstwy przetwarzania wstępnego w interfejsie Keras 431 TF Transform 433 Projekt TensorFlow Datasets (TFDS) 435 14. Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych 439 Struktura kory wzrokowej 440 Warstwy splotowe 441 Filtry 443 Stosy map cech 444 Implementacja w module TensorFlow 446 Zużycie pamięci operacyjnej 448 Warstwa łącząca 449 Implementacja w module TensorFlow 451 Architektury splotowych sieci neuronowych 452 LeNet-5 454 AlexNet 455 GoogLeNet 458 VGGNet 461 ResNet 461 Xception 465 SENet 466 Implementacja sieci ResNet-34 za pomocą interfejsu Keras 468 Korzystanie z gotowych modeli w interfejsie Keras 469 Gotowe modele w uczeniu transferowym 471 Klasyfikowanie i lokalizowanie 473 Wykrywanie obiektów 474 W pełni połączone sieci splotowe 476 Sieć YOLO 478 Segmentacja semantyczna 481 15. Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych 487 Neurony i warstwy rekurencyjne 488 Komórki pamięci 490 Sekwencje wejść i wyjść 491 Uczenie sieci rekurencyjnych 492 Prognozowanie szeregów czasowych 493 Wskaźniki bazowe 494 Implementacja prostej sieci rekurencyjnej 494 Głębokie sieci rekurencyjne 496 Prognozowanie kilka taktów w przód 497 Obsługa długich sekwencji 500 Zwalczanie problemu niestabilnych gradientów 501 Zwalczanie problemu pamięci krótkotrwałej 503 16. Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi 513 Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej 514 Tworzenie zestawu danych uczących 515 Rozdzielanie zestawu danych sekwencyjnych 515 Dzielenie zestawu danych sekwencyjnych na wiele ramek 516 Budowanie i uczenie modelu Char-RNN 518 Korzystanie z modelu Char-RNN 519 Generowanie sztucznego tekstu szekspirowskiego 519 Stanowe sieci rekurencyjne 520 Analiza sentymentów 522 Maskowanie 526 Korzystanie z gotowych reprezentacji właściwościowych 527 Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego 529 Dwukierunkowe warstwy rekurencyjne 532 Przeszukiwanie wiązkowe 533 Mechanizmy uwagi 534 Mechanizm uwagi wizualnej 537 Liczy się tylko uwaga, czyli architektura transformatora 539 Współczesne innowacje w modelach językowych 546 17. Uczenie reprezentacji za pomocą autokoderów i generatywnych sieci przeciwstawnych 551 Efektywne reprezentacje danych 552 Analiza PCA za pomocą niedopełnionego autokodera liniowego 554 Autokodery stosowe 555 Implementacja autokodera stosowego za pomocą interfejsu Keras 556 Wizualizowanie rekonstrukcji 557 Wizualizowanie zestawu danych Fashion MNIST 558 Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych 558 Wiązanie wag 560 Uczenie autokoderów pojedynczo 561 Autokodery splotowe 562 Autokodery rekurencyjne 563 Autokodery odszumiające 564 Autokodery rzadkie 566 Autokodery wariacyjne 569 Generowanie obrazów Fashion MNIST 572 Generatywne sieci przeciwstawne 574 Problemy związane z uczeniem sieci GAN 577 Głębokie splotowe sieci GAN 579 Rozrost progresywny sieci GAN 582 Sieci StyleGAN 585 18. Uczenie przez wzmacnianie 589 Uczenie się optymalizowania nagród 590 Wyszukiwanie strategii 591 Wprowadzenie do narzędzia OpenAI Gym 593 Sieci neuronowe jako strategie 597 Ocenianie czynności: problem przypisania zasługi 598 Gradienty strategii 600 Procesy decyzyjne Markowa 604 Uczenie metodą różnic czasowych 607 Q-uczenie 609 Strategie poszukiwania 610 Przybliżający algorytm Q-uczenia i Q-uczenie głębokie 611 Implementacja modelu Q-uczenia głębokiego 612 Odmiany Q-uczenia głębokiego 616 Ustalone Q-wartości docelowe 616 Podwójna sieć DQN 617 Odtwarzanie priorytetowych doświadczeń 618 Walcząca sieć DQN 618 Biblioteka TF-Agents 619 Instalacja biblioteki TF-Agents 620 Środowiska TF-Agents 620 Specyfikacja środowiska 621 Funkcje opakowujące środowisko i wstępne przetwarzanie środowiska Atari 622 Architektura ucząca 625 Tworzenie Q-sieci głębokiej 627 Tworzenie agenta DQN 629 Tworzenie bufora odtwarzania i związanego z nim obserwatora 630 Tworzenie wskaźników procesu uczenia 631 Tworzenie sterownika 632 Tworzenie zestawu danych 633 Tworzenie pętli uczenia 636 Przegląd popularnych algorytmów RN 637 19. Wielkoskalowe uczenie i wdrażanie modeli TensorFlow 641 Eksploatacja modelu TensorFlow 642 Korzystanie z systemu TensorFlow Serving 642 Tworzenie usługi predykcyjnej na platformie GCP AI 650 Korzystanie z usługi prognozowania 655 Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym 658 Przyspieszanie obliczeń za pomocą procesorów graficznych 661 Zakup własnej karty graficznej 662 Korzystanie z maszyny wirtualnej wyposażonej w procesor graficzny 664 Colaboratory 665 Zarządzanie pamięcią operacyjną karty graficznej 666 Umieszczanie operacji i zmiennych na urządzeniach 669 Przetwarzanie równoległe na wielu urządzeniach 671 Uczenie modeli za pomocą wielu urządzeń 673 Zrównoleglanie modelu 673 Zrównoleglanie danych 675 Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania 680 Uczenie modelu za pomocą klastra TensorFlow 681 Realizowanie dużych grup zadań uczenia za pomocą usługi Google Cloud AI Platform 684 Penetracyjne strojenie hiperparametrów w usłudze AI Platform 686 A. Rozwiązania ćwiczeń 691 B. Lista kontrolna projektu uczenia maszynowego 725 C. Problem dualny w maszynach wektorów nośnych 731 D. Różniczkowanie automatyczne 735 E. Inne popularne architektury sieci neuronowych 743 F. Specjalne struktury danych 751 G. Grafy TensorFlow 757
Sygnatura czytelni BWEAiI: XII Ł 177
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149873 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Hands-on machine learning with Scikit-Learn and TensorFlow.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Indeks.
Fenomen uczenia maszynowego Uczenie maszynowe w Twoich projektach Cel i sposób jego osiągnięcia Wymogi wstępne Zawartość książki Dodatkowe zasoby Konwencje stosowane w książce Korzystanie z kodu źródłowego Część I Podstawy uczenia maszynowego Rozdział 1. Krajobraz uczenia maszynowego Czym jest uczenie maszynowe? Dlaczego warto korzystać z uczenia maszynowego? Rodzaje systemów uczenia maszynowego Uczenie nadzorowane/nienadzorowane Uczenie nadzorowane Uczenie nienadzorowane Uczenie półnadzorowane Uczenie przez wzmacnianie Uczenie wsadowe/przyrostowe Uczenie wsadowe Uczenie przyrostowe Uczenie z przykładów/z modelu Uczenie z przykładów Uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz metrykę wydajności Sprawdź założenia Zdobądź dane Stwórz przestrzeń roboczą Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Wizualizowanie danych geograficznych Poszukiwanie korelacji Eksperymentowanie z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyszczanie danych Obsługa tekstu i atrybutów kategorialnych Niestandardowe transformatory Skalowanie cech Potoki transformujące Wybór i uczenie modelu Trenowanie i ocena modelu za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizuj najlepsze modele i ich błędy Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Teraz Twoja kolej! Rozdział 3. Klasyfikacja Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa Rozdział 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Metoda elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax Rozdział 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Dodawanie cech podobieństwa Gaussowskie jądro RBF Złożoność obliczeniowa Regresja SVM Mechanizm działania Funkcja decyzyjna i prognozy Cel uczenia Programowanie kwadratowe Problem dualny Kernelizowane maszyny SVM Przyrostowe maszyny SVM Rozdział 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Niestabilność Rozdział 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Kontaminacja Rozdział 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Główne składowe Rzutowanie na d wymiarów Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Przyrostowa analiza PCA Losowa analiza PCA Jądrowa analiza PCA Wybór jądra i strojenie hiperparametrów Algorytm LLE Inne techniki redukowania wymiarowości Część II Sieci neuronowe i uczenie głębokie Rozdział 9. Instalacja i używanie modułu TensorFlow Instalacja Tworzenie pierwszego grafu i uruchamianie go w sesji Zarządzanie grafami Cykl życia wartości w węźle Regresja liniowa przy użyciu modułu TensorFlow Implementacja metody gradientu prostego Ręczne obliczanie gradientów Automatyczne różniczkowanie Korzystanie z optymalizatora Dostarczanie danych algorytmowi uczącemu Zapisywanie i wczytywanie modeli Wizualizowanie grafu i krzywych uczenia za pomocą modułu TensorBoard Zakresy nazw Modułowość Udostępnianie zmiennych Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Uczenie sieci MLP za pomocą zaawansowanego interfejsu API modułu TensorFlow Uczenie głębokiej sieci neuronowej za pomocą standardowego interfejsu TensorFlow Faza konstrukcyjna Faza wykonawcza Korzystanie z sieci neuronowej Strojenie hiperparametrów sieci neuronowej Liczba ukrytych warstw Liczba neuronów tworzących warstwę ukrytą Funkcje aktywacji Rozdział 11. Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjacje wag Xaviera i He Nienasycające funkcje aktywacji Normalizacja wsadowa Implementacja normalizacji wsadowej za pomocą modułu TensorFlow Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Wielokrotne stosowanie modelu TensorFlow Wykorzystywanie modeli utworzonych w innych środowiskach Zamrażanie niższych warstw Zapamiętywanie warstw ukrytych Modyfikowanie, usuwanie lub zastępowanie górnych warstw Repozytoria modeli Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyśpieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizacja Adam Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób unikania przetrenowania Wczesne zatrzymywanie Regularyzacja 1 i 2 Porzucanie Regularyzacja typu max-norm Dogenerowanie danych Praktyczne wskazówki Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Wiele urządzeń na jednym komputerze Instalacja Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji na urządzeniach Proste rozmieszczanie Zapisywanie zdarzeń rozmieszczania Funkcja dynamicznego rozmieszczania Operacje i jądra Miękkie rozmieszczanie Przetwarzanie równoległe Zależności sterujące Wiele urządzeń na wielu serwerach Otwieranie sesji Usługi nadrzędna i robocza Przypinanie operacji w wielu zadaniach Rozdzielanie zmiennych pomiędzy wiele serwerów parametrów Udostępnianie stanu rozproszonych sesji za pomocą kontenerów zasobów Komunikacja asynchroniczna za pomocą kolejek Umieszczanie danych w kolejce Usuwanie danych z kolejki Kolejki krotek Zamykanie kolejki RandomShuffleQueue PaddingFIFOQueue Wczytywanie danych bezpośrednio z grafu Wstępne wczytanie danych do zmiennej Wczytywanie danych uczących bezpośrednio z grafu Czytniki wieloklasowe wykorzystujące klasy Coordinator i QueueRunner Inne funkcje pomocnicze Przetwarzanie równoległe sieci neuronowych w klastrze TensorFlow Jedna sieć neuronowa na każde urządzenie Replikacja wewnątrzgrafowa i międzygrafowa Zrównoleglanie modelu Zrównoleglanie danych Aktualizacje synchroniczne Aktualizacje asynchroniczne Nasycenie przepustowości Implementacja w module TensorFlow Rozdział 13. Splotowe sieci neuronowe Architektura kory wzrokowej Warstwa splotowa Filtry Stosy map cech Implementacja w module TensorFlow Zużycie pamięci operacyjnej Warstwa łącząca Architektury splotowych sieci neuronowych LeNet-5 AlexNet GoogLeNet ResNet Rozdział 14. Rekurencyjne sieci neuronowe Neurony rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Podstawowe sieci RSN w module TensorFlow Statyczne rozwijanie w czasie Dynamiczne rozwijanie w czasie Obsługa sekwencji wejściowych o zmiennej długości Obsługa sekwencji wyjściowych o zmiennej długości Uczenie rekurencyjnych sieci neuronowych Uczenie klasyfikatora sekwencji Uczenie w celu przewidywania szeregów czasowych Twórcza sieć rekurencyjna Głębokie sieci rekurencyjne Rozmieszczanie głębokiej sieci rekurencyjnej pomiędzy wiele kart graficznych Wprowadzanie metody porzucania Problem uczenia w sieciach wielotaktowych Komórka LSTM Połączenia przezierne Komórka GRU Przetwarzanie języka naturalnego Reprezentacje wektorowe słów Sieć typu koder-dekoder służąca do tłumaczenia maszynowego Rozdział 15. Autokodery Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja w module TensorFlow Wiązanie wag Uczenie autokoderów pojedynczo Wizualizacja rekonstrukcji Wizualizowanie cech Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Autokodery odszumiające Implementacja w module TensorFlow Autokodery rzadkie Implementacja w module TensorFlow Autokodery wariacyjne Generowanie cyfr Inne autokodery Rozdział 16. Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie polityki Wprowadzenie do narzędzia OpenAI gym Sieci neuronowe jako polityki Ocenianie czynności problem przypisania zasługi Gradienty polityk Procesy decyzyjne Markowa Uczenie metodą różnic czasowych i algorytm Q-uczenia Polityki poszukiwania Przybliżający algorytm Q-uczenia Nauka gry w Ms. Pac-Man za pomocą głębokiego Q-uczenia Rozdział 1. Krajobraz uczenia maszynowego Rozdział 2. Nasz pierwszy projekt uczenia maszynowego Rozdział 3. Klasyfikacja Rozdział 4. Uczenie modeli Rozdział 5. Maszyny wektorów nośnych Rozdział 6. Drzewa decyzyjne Rozdział 7. Uczenie zespołowe i losowe lasy Rozdział 8. Redukcja wymiarowości Rozdział 9. Instalacja i używanie modułu TensorFlow Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych Rozdział 11. Uczenie głębokich sieci neuronowych Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery Rozdział 13. Splotowe sieci neuronowe Rozdział 14. Rekurencyjne sieci neuronowe Rozdział 15. Autokodery Rozdział 16. Uczenie przez wzmacnianie Dodatek B Lista kontrolna projektu uczenia maszynowego Określenie problemu i przeanalizowanie go w szerszej perspektywie Pozyskanie danych Analiza danych Przygotowanie danych Stworzenie krótkiej listy obiecujących modeli Dostrojenie modelu Zaprezentowanie rozwiązania Dodatek C Problem dualny w maszynach wektorów nośnych Dodatek D Różniczkowanie automatyczne Różniczkowanie ręczne Różniczkowanie symboliczne Różniczkowanie numeryczne Różniczkowanie automatyczne Odwrotne różniczkowanie automatyczne Dodatek E Inne popularne architektury sieci neuronowych Sieci Hopfielda Maszyny Boltzmanna Ograniczone maszyny Boltzmanna Głębokie sieci przekonań Mapy samoorganizujące
Sygnatura czytelni BWEAiI: XII Ł 101
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 146326 N (1 egz.)
Książka
W koszyku
Uczenie maszynowe z użyciem Scikit-Learn, Keras i TensorFlow / Aurélien Géron ; przekład: Krzysztof Sawka. - Gliwice : Helion, 2023. - 774, [2] strony : fotografie, ilustracje, wykresy ; 24 cm.
Wydanie 3. odnosi się do oryginału. Na stronie tytułowej i okładce także nazwa wydawcy oryginału: O'Reilly.
Indeks.
Podstawy uczenia maszynowego Nadzorowanie uczenia Uczenie wsadowe i uczenie przyrostowe Uczenie z przykładów i uczenie z modelu Główne problemy uczenia maszynowego Niedobór danych uczących Niereprezentatywne dane uczące Dane kiepskiej jakości Nieistotne cechy Przetrenowanie danych uczących Niedotrenowanie danych uczących Testowanie i ocenianie Strojenie hiperparametrów i dobór modelu Niezgodność danych Nasz pierwszy projekt uczenia maszynowego Praca z rzeczywistymi danymi Przeanalizuj całokształt projektu Określ zakres problemu Wybierz wskaźnik wydajności Zdobądź dane Uruchom przykładowy kod w serwisie Google Colab Zapisz zmiany w kodzie i w danych Zalety i wady interaktywności Kod w książce a kod w notatnikach Jupyter Pobierz dane Rzut oka na strukturę danych Stwórz zbiór testowy Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje Zwizualizuj dane geograficzne Poszukaj korelacji Eksperymentuj z kombinacjami atrybutów Przygotuj dane pod algorytmy uczenia maszynowego Oczyść dane Obsługa tekstu i atrybutów kategorialnych Skalowanie i przekształcanie cech Niestandardowe transformatory Potoki transformujące Wybierz i wytrenuj model Trenuj i oceń model za pomocą zbioru uczącego Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego Wyreguluj swój model Metoda przeszukiwania siatki Metoda losowego przeszukiwania Metody zespołowe Analizowanie najlepszych modeli i ich błędów Oceń system za pomocą zbioru testowego Uruchom, monitoruj i utrzymuj swój system Zbiór danych MNIST Uczenie klasyfikatora binarnego Miary wydajności Pomiar dokładności za pomocą sprawdzianu krzyżowego Macierz pomyłek Precyzja i pełność Kompromis pomiędzy precyzją a pełnością Wykres krzywej ROC Klasyfikacja wieloklasowa Analiza błędów Klasyfikacja wieloetykietowa Klasyfikacja wielowyjściowa 4. Uczenie modeli Regresja liniowa Równanie normalne Złożoność obliczeniowa Gradient prosty Wsadowy gradient prosty Stochastyczny spadek wzdłuż gradientu Schodzenie po gradiencie z minigrupami Regresja wielomianowa Krzywe uczenia Regularyzowane modele liniowe Regresja grzbietowa Regresja metodą LASSO Regresja metodą elastycznej siatki Wczesne zatrzymywanie Regresja logistyczna Szacowanie prawdopodobieństwa Funkcje ucząca i kosztu Granice decyzyjne Regresja softmax 5. Maszyny wektorów nośnych Liniowa klasyfikacja SVM Klasyfikacja miękkiego marginesu Nieliniowa klasyfikacja SVM Jądro wielomianowe Cechy podobieństwa Gaussowskie jądro RBF Klasy SVM i złożoność obliczeniowa Regresja SVM Mechanizm działania liniowych klasyfikatorów SVM Problem dualny Kernelizowane maszyny SVM 6. Drzewa decyzyjne Uczenie i wizualizowanie drzewa decyzyjnego Wyliczanie prognoz Szacowanie prawdopodobieństw przynależności do klas Algorytm uczący CART Złożoność obliczeniowa Wskaźnik Giniego czy entropia? Hiperparametry regularyzacyjne Regresja Wrażliwość na orientację osi Drzewa decyzyjne mają znaczną wariancję 7. Uczenie zespołowe i losowe lasy Klasyfikatory głosujące Agregacja i wklejanie Agregacja i wklejanie w module Scikit-Learn Ocena OOB Rejony losowe i podprzestrzenie losowe Losowe lasy Zespół Extra-Trees Istotność cech Wzmacnianie AdaBoost Wzmacnianie gradientowe Wzmacnianie gradientu w oparciu o histogram Kontaminacja 8. Redukcja wymiarowości Klątwa wymiarowości Główne strategie redukcji wymiarowości Rzutowanie Uczenie rozmaitościowe Analiza PCA Zachowanie wariancji Rzutowanie na d wymiarów
Implementacja w module Scikit-Learn Współczynnik wariancji wyjaśnionej Wybór właściwej liczby wymiarów Algorytm PCA w zastosowaniach kompresji Losowa analiza PCA Przyrostowa analiza PCA Rzutowanie losowe Algorytm LLE Inne techniki redukowania wymiarowości 9. Techniki uczenia nienadzorowanego Analiza skupień: algorytm centroidów i DBSCAN Algorytm centroidów Granice algorytmu centroidów Analiza skupień w segmentacji obrazu Analiza skupień w uczeniu półnadzorowanym Algorytm DBSCAN Mieszaniny gaussowskie Wykrywanie anomalii za pomocą mieszanin gaussowskich Wyznaczanie liczby skupień Bayesowskie modele mieszane Sieci neuronowe i uczenie głębokie 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z użyciem interfejsu Keras Od biologicznych do sztucznych neuronów Neurony biologiczne Operacje logiczne przy użyciu neuronów Perceptron Perceptron wielowarstwowy i propagacja wsteczna Regresyjne perceptrony wielowarstwowe Klasyfikacyjne perceptrony wielowarstwowe Implementowanie perceptronów wielowarstwowych za pomocą interfejsu Keras Tworzenie klasyfikatora obrazów za pomocą interfejsu sekwencyjnego Tworzenie regresyjnego perceptronu wielowarstwowego za pomocą interfejsu sekwencyjnego Tworzenie złożonych modeli za pomocą interfejsu funkcyjnego Tworzenie modeli dynamicznych za pomocą interfejsu podklasowego Zapisywanie i odczytywanie modelu Stosowanie wywołań zwrotnych Wizualizacja danych za pomocą narzędzia TensorBoard Dostrajanie hiperparametrów sieci neuronowej Liczba warstw ukrytych Liczba neuronów w poszczególnych warstwach ukrytych Współczynnik uczenia, rozmiar grupy i pozostałe hiperparametry Uczenie głębokich sieci neuronowych Problemy zanikających/eksplodujących gradientów Inicjalizacje wag Glorota i He Lepsze funkcje aktywacji Normalizacja wsadowa Obcinanie gradientu Wielokrotne stosowanie gotowych warstw Uczenie transferowe w interfejsie Keras Nienadzorowane uczenie wstępne Uczenie wstępne za pomocą dodatkowego zadania Szybsze optymalizatory Optymalizacja momentum Przyspieszony spadek wzdłuż gradientu (algorytm Nesterova) AdaGrad RMSProp Optymalizator Adam AdaMax Nadam AdamW Harmonogramowanie współczynnika uczenia Regularyzacja jako sposób zapobiegania przetrenowaniu Regularyzacja l1 i l2 Porzucanie Regularyzacja typu Monte Carlo (MC) Regularyzacja typu max-norm Modele niestandardowe i uczenie za pomocą modułu TensorFlow Krótkie omówienie modułu TensorFlow Korzystanie z modułu TensorFlow jak z biblioteki NumPy Tensory i operacje Tensory a biblioteka NumPy Konwersje typów Zmienne Dostosowywanie modeli i algorytmów uczenia Niestandardowe funkcje straty Zapisywanie i wczytywanie modeli zawierających elementy niestandardowe Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia Niestandardowe wskaźniki Niestandardowe warstwy Niestandardowe modele Funkcje straty i wskaźniki oparte na elementach wewnętrznych modelu Obliczanie gradientów za pomocą różniczkowania automatycznego Niestandardowe pętle uczenia Funkcje i grafy modułu TensorFlow AutoGraph i kreślenie Reguły związane z funkcją TF Wczytywanie i wstępne przetwarzanie danych za pomocą modułu TensorFlow Interfejs tf.data Łączenie przekształceń Tasowanie danych Przeplatanie wierszy z różnych plików Wstępne przetwarzanie danych Składanie wszystkiego w całość Pobieranie wstępne Stosowanie zestawu danych z interfejsem Keras Format TFRecord Skompresowane pliki TFRecord Wprowadzenie do buforów protokołów Bufory protokołów w module TensorFlow Wczytywanie i analizowanie składni obiektów Example Obsługa list list za pomocą bufora protokołów SequenceExample Warstwy przetwarzania wstępnego Keras Warstwa Normalization Warstwa Discretization Warstwa CategoryEncoding Warstwa StringLookup Warstwa Hashing Kodowanie cech kategorialnych za pomocą wektorów właściwościowych Wstępne przetwarzanie tekstu Korzystanie z wytrenowanych składników modelu językowego Warstwy wstępnego przetwarzania obrazów Projekt TensorFlow Datasets (TFDS) Głębokie widzenie komputerowe za pomocą splotowych sieci neuronowych Struktura kory wzrokowej Warstwy splotowe Filtry Stosy map cech Implementacja warstw splotowych w interfejsie Keras Zużycie pamięci operacyjnej Warstwa łącząca Implementacja warstw łączących w interfejsie Keras Architektury splotowych sieci neuronowych LeNet-5 AlexNet
GoogLeNet VGGNet ResNet Xception SENet Wybór właściwej struktury CNN Implementacja sieci ResNet-34 za pomocą interfejsu Keras Korzystanie z gotowych modeli w interfejsie Keras Gotowe modele w uczeniu transferowym Klasyfikowanie i lokalizowanie Wykrywanie obiektów W pełni połączone sieci splotowe Sieć YOLO Śledzenie obiektów Segmentacja semantyczna Przetwarzanie sekwencji za pomocą sieci rekurencyjnych i splotowych Neurony i warstwy rekurencyjne Komórki pamięci Sekwencje wejść i wyjść Uczenie sieci rekurencyjnych Prognozowanie szeregów czasowych Rodzina modeli ARMA Przygotowywanie danych dla modeli uczenia maszynowego Prognozowanie za pomocą modelu liniowego Prognozowanie za pomocą prostej sieci rekurencyjnej Prognozowanie za pomocą głębokich sieci rekurencyjnych Prognozowanie wielowymiarowych szeregów czasowych Prognozowanie kilka taktów w przód Prognozowanie za pomocą modelu sekwencyjnego Obsługa długich sekwencji Zwalczanie problemu niestabilnych gradientów Zwalczanie problemu pamięci krótkotrwałej Przetwarzanie języka naturalnego za pomocą sieci rekurencyjnych i mechanizmów uwagi Generowanie tekstów szekspirowskich za pomocą znakowej sieci rekurencyjnej Tworzenie zestawu danych uczących Budowanie i uczenie modelu char-RNN Generowanie sztucznego tekstu szekspirowskiego Stanowe sieci rekurencyjne Analiza opinii Maskowanie Korzystanie z gotowych reprezentacji właściwościowych i modeli językowych Sieć typu koder - dekoder służąca do neuronowego tłumaczenia maszynowego Dwukierunkowe sieci rekurencyjne Przeszukiwanie wiązkowe Mechanizmy uwagi Liczy się tylko uwaga: pierwotna architektura transformatora Zatrzęsienie modeli transformatorów Transformatory wizualne Biblioteka Transformers firmy Hugging Face Autokodery, generatywne sieci przeciwstawne i modele rozpraszające Efektywne reprezentacje danych Analiza PCA za pomocą niedopełnionego autokodera liniowego Autokodery stosowe Implementacja autokodera stosowego za pomocą interfejsu Keras Wizualizowanie rekonstrukcji Wizualizowanie zestawu danych Fashion MNIST Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych Wiązanie wag Uczenie autokoderów pojedynczo Autokodery splotowe Autokodery odszumiające Autokodery rzadkie Autokodery wariacyjne Generowanie obrazów Fashion MNIST Generatywne sieci przeciwstawne Problemy związane z uczeniem sieci GAN Głębokie splotowe sieci GAN Rozrost progresywny sieci GAN Sieci StyleGAN Modele rozpraszające Uczenie przez wzmacnianie Uczenie się optymalizowania nagród Wyszukiwanie strategii Wprowadzenie do narzędzia OpenAI Gym Sieci neuronowe jako strategie Ocenianie czynności: problem przypisania zasługi Gradienty strategii Procesy decyzyjne Markowa Uczenie metodą różnic czasowych Q-uczenie Przybliżający algorytm Q-uczenia i Q-uczenie głębokie Implementacja modelu Q-uczenia głębokiego Odmiany Q-uczenia głębokiego Ustalone Q-wartości docelowe Podwójna sieć DQN Odtwarzanie priorytetowych doświadczeń Walcząca sieć DQN Przegląd popularnych algorytmów RN Wielkoskalowe uczenie i wdrażanie modeli TensorFlow Eksploatacja modelu TensorFlow Korzystanie z systemu TensorFlow Serving Tworzenie usługi predykcyjnej na platformie Vertex AI Uwierzytelnianie i autoryzacja w serwisie GCP Wykonywanie zadań predykcji wsadowych w usłudze Vertex AI Wdrażanie modelu na urządzeniu mobilnym lub wbudowanym Przetwarzanie modelu na stronie internetowej Przyspieszanie obliczeń za pomocą procesorów graficznych Zakup własnej karty graficznej Zarządzanie pamięcią operacyjną karty graficznej Umieszczanie operacji i zmiennych na urządzeniach Przetwarzanie równoległe na wielu urządzeniach Uczenie modeli za pomocą wielu urządzeń Zrównoleglanie modelu Zrównoleglanie danych Uczenie wielkoskalowe za pomocą interfejsu strategii rozpraszania Uczenie modelu za pomocą klastra TensorFlow Realizowanie dużych grup zadań uczenia za pomocą usługi Vertex AI Strojenie hiperparametrów w usłudze Vertex AI
Sygnatura czytelni BWEAiI: XII E 131
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 154703 N (1 egz.)
Brak okładki
Książka
W koszyku
U góry okł.: Błyskawicznie opanuj środowisko produkcyjne dla Androida!
U dołu okł.: Jak rozpocząć przygodę z systemem Adndroid? Jak korzystać z usług geolokalizacyjnych? Jak tworzyć trójwymiarową grafikę, korzystając z biblioteki OpenGL?
Indeks.
Sygnatura czytelni BWEAiI: XII R 8
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 129136 N (1 egz.)
Książka
W koszyku
Deep learning : praktyczne wprowadzenie z zastosowaniem środowiska Pythona / Ron Kneusel ; przekład: Krzysztof Sawka. - Gliwice : Helion, copyright 2022. - 472 strony : fotografie, ilustracje, wykresy ; 23 cm.
Na stronie tytułowej i okładce także nazwa wydawcy oryginału: No starch press.
Indeks.
Środowisko operacyjne NumPy scikit-learn Keras i TensorFlow Instalacja narzędzi Podstawy algebry liniowej Wektory Macierze Mnożenie wektorów i macierzy Statystyka i prawdopodobieństwo Statystyka opisowa Rozkłady prawdopodobieństwa Testy statystyczne Procesory graficzne (GPU) 2. Korzystanie z Pythona Interpreter Pythona Instrukcje i białe znaki Zmienne i podstawowe struktury danych Przedstawianie liczb Zmienne Łańcuchy znaków Listy Słowniki Struktury sterowania Instrukcje if-elif-else Pętle for Pętle while Instrukcje break i continue Instrukcja with Obsługa błędów za pomocą bloków try-except Funkcje Moduły 3. Biblioteka NumPy Dlaczego NumPy? Tablice a listy Testowanie szybkości tablic i list Definiowanie tablicy za pomocą funkcji, np. array Definiowanie tablic wypełnionych zerami i jedynkami Dostęp do elementów tablicy Indeksowanie tablicowe Uzyskiwanie wycinków tablicy Wielokropek Operatory i rozgłaszanie Dane wejściowe i wyjściowe tablic Liczby losowe Biblioteka NumPy i obrazy 4. Praca z danymi Klasy i etykiety Cechy i wektory cech Dobór cech i klątwa wymiarowości Własności dobrego zestawu danych Interpolacja i ekstrapolacja Główny rozkład prawdopodobieństwa Rozkład a priori Przykłady mylące Rozmiar zestawu danych Przygotowanie danych Skalowanie cech Brakujące cechy Dane uczące, walidacyjne i testowe Trzy podzbiory Dzielenie zestawu danych k-krotny sprawdzian krzyżowy Analiza danych Wyszukiwanie problemów z danymi 5. Budowanie zestawów danych Kosaćce (zestaw danych Iris) Nowotwory piersi (zestaw danych Breast Cancer) Cyfry zapisane pismem odręcznym (zestaw danych MNIST) Różne obrazy (zestaw danych CIFAR-10) Rozszerzanie danych Dlaczego należy rozszerzać dane uczące? Sposoby rozszerzania danych Rozszerzanie zestawu danych Iris Rozszerzanie zestawu danych CIFAR-10 6. Klasyczne uczenie maszynowe Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne i lasy losowe Rekurencja Budowanie drzew decyzyjnych Lasy losowe Maszyny wektorów nośnych Marginesy Wektory nośne Optymalizacja Jądra 7. Eksperymentowanie z klasycznymi modelami Eksperymenty z użyciem zestawu danych Iris Testowanie klasycznych modeli Implementacja klasyfikatora najbliższego centroidu Eksperymenty z użyciem zestawu danych Breast Cancer Dwa pierwsze przebiegi testowe Skutek losowych podziałów Dodawanie k-krotnego sprawdzianu krzyżowego Poszukiwanie hiperparametrów Eksperymenty z użyciem zestawu danych MNIST Testowanie klasycznych modeli Analiza czasu działania Eksperymenty z głównymi składowymi analizy PCA Tasowanie zestawu danych Podsumowanie klasycznych modeli Algorytm najbliższego centroidu Algorytm k najbliższych sąsiadów Naiwny klasyfikator Bayesa Drzewa decyzyjne Lasy losowe Maszyny wektorów nośnych Kiedy używać klasycznych modeli? Korzystanie z małych zestawów danych Ograniczone zasoby obliczeniowe Dostęp do wyjaśnialnych modeli Praca z danymi wektorowymi 8. Wprowadzenie do sieci neuronowych Anatomia sieci neuronowej Neuron Funkcje aktywacji Architektura sieci Warstwy wyjściowe Wagi i obciążenia Implementacja prostej sieci neuronowej Przygotowanie zestawu danych Implementacja sieci neuronowej Uczenie i testowanie sieci neuronowej 9. Uczenie sieci neuronowej Algorytm gradientu prostego Wyszukiwanie minimów Aktualizowanie wag Stochastyczny spadek wzdłuż gradientu Grupy i minigrupy Funkcje wypukłe i niewypukłe Kończenie uczenia Aktualizowanie współczynnika uczenia Momentum Propagacja wsteczna Propagacja wsteczna - ujęcie pierwsze Propagacja wsteczna - ujęcie drugie Funkcje straty Błąd bezwzględny i błąd średniokwadratowy Entropia krzyżowa Inicjalizowanie wag Przetrenowanie i regularyzacja Przetrenowanie Regularyzacja Regularyzacja L2 Porzucanie 10. Eksperymentowanie z sieciami neuronowymi Nasz zestaw danych Klasa MLPClassifier Struktura sieci i funkcje aktywacji Kod Rozmiar grupy Podstawowy współczynnik uczenia Rozmiar zbioru uczącego Regularyzacja L2 Momentum Inicjalizacja wag Kolejność cech Ocenianie modeli Dlaczego dokładność jest niewystarczająca? Macierz pomyłek 2×2 Wskaźniki wyprowadzane z macierzy pomyłek Wyprowadzanie wskaźników na podstawie macierzy pomyłek Interpretowanie modeli za pomocą wskaźników Zaawansowane wskaźniki Informatywność i nacechowanie Wskaźnik F1 Współczynnik kappa Cohena Współczynnik korelacji Matthewsa Implementacja zaawansowanych wskaźników Krzywa charakterystyki operacyjnej odbiornika Dobór modeli Rysowanie wykresu wskaźników Analiza krzywej ROC Porównywanie modeli za pomocą analizy ROC Generowanie krzywej ROC Krzywa precyzji-czułości Przypadki wieloklasowe Rozszerzanie macierzy pomyłek Obliczanie dokładności ważonej Wieloklasowy współczynnik korelacji Matthewsa Wprowadzenie do splotowych sieci neuronowych Dlaczego splotowe sieci neuronowe? Splot Skanowanie za pomocą jądra Splot w przetwarzaniu obrazów Anatomia splotowej sieci neuronowej Różne typy warstw Przepuszczanie danych przez sieć splotową Warstwy splotowe Mechanizm działania warstwy splotowej Korzystanie z warstwy splotowej Wielokrotne warstwy splotowe Inicjalizacja warstwy splotowej Warstwy łączące Warstwy w pełni połączone Pełne warstwy splotowe Eksperymentowanie z biblioteką Keras i zestawem danych MNIST Budowanie sieci splotowych w bibliotece Keras Wczytywanie danych MNIST Budowanie modelu Uczenie i ocena modelu Tworzenie wykresu funkcji błędu Podstawowe eksperymenty Eksperymenty na architekturze Rozmiar zbioru uczącego, minigrup oraz liczba epok Optymalizatory Pełne sieci splotowe Budowa i trenowanie modelu Przygotowanie obrazów testowych Testowanie modelu Potasowane cyfry MNIST Eksperymentowanie z zestawem danych CIFAR-10 Zestaw CIFAR-10 - przypomnienie Praca na pełnym zestawie CIFAR-10 Budowanie modeli Analizowanie modeli Zwierzę czy pojazd? Model binarny czy wieloklasowy? Uczenie transferowe Strojenie modelu Przygotowanie zestawów danych Dostosowanie modelu do strojenia Testowanie modelu Studium przypadku: klasyfikowanie próbek dźwiękowych Budowanie zestawu danych Rozszerzanie zestawu danych Wstępne przetwarzanie danych Klasyfikowanie cech dźwiękowych Modele klasyczne Tradycyjna sieć neuronowa Splotowa sieć neuronowa Spektrogramy Klasyfikowanie spektrogramów Inicjalizacja, regularyzacja i normalizacja wsadowa Analiza macierzy pomyłek
Sygnatura czytelni BWEAiI: XII Ł 215
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 153005 (1 egz.)
Książka
W koszyku
U dołu s. tyt. i okł. logo wydaw. oryg.: Apress.
U góry okł.: Kompendium wiedzy na temat platformy Android!
Indeks.
Sygnatura czytelni BWEAiI: XII R 10
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 135024, 135025 (2 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 132822 N (1 egz.)
Książka
W koszyku
(Technologia i Rozwiązania)
Na s. tyt., okł.: Poznaj świat systemu Linux!
Na s. tyt., okł. logo wydaw. oryg.: Pack Publishing.
Na okł. nazwa serii wyd. oryg.: Community experience distilled.
Indeks.
Dla początkujących uzytkowników Linuxa, a także dla osób poszukujących ogólnego przewodnika po Linuxe Mint.
Sygnatura czytelni BWEAiI: XII S 23
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 141098 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: R cookbook : proven recipes for data analysis, statistics and graphics.
Wydanie 2. odnosi się do oryginału.
Indeks.
1. Pierwsze kroki i uzyskiwanie pomocy 17 1.1. Pobranie i instalacja R 18 1.2. Instalacja środowiska RStudio 20 1.3. Uruchamianie środowiska RStudio 21 1.4. Wprowadzanie poleceń 23 1.5. Wyjście ze środowiska RStudio 24 1.6. Przerywanie realizacji kodu R 26 1.7. Przeglądanie dołączonej dokumentacji 27 1.8. Uzyskiwanie pomocy na temat funkcji 28 1.9. Wyszukiwanie dodatkowej dokumentacji 30 1.10. Uzyskiwanie pomocy na temat pakietu 31 1.11. Wyszukiwanie pomocy w internecie 32 1.12. Wyszukiwanie przydatnych funkcji i pakietów 35 1.13. Przeszukiwanie list dyskusyjnych 36 1.14. Przesyłanie pytań do serwisu Stack Overflow lub innego 37 2. Garść podstaw 41 2.1. Wyświetlanie interesujących nas danych na ekranie 41 2.2. Wyznaczanie zmiennych 43 2.3. Tworzenie listy zmiennych 44 2.4. Usuwanie zmiennych 46 2.5. Tworzenie wektorów 47 2.6. Obliczanie podstawowych statystyk 49 2.7. Tworzenie sekwencji 51 2.8. Porównywanie wektorów 52 2.9. Wybieranie elementów wektora 54 2.10. Wykonywanie obliczeń wektorowych 57 2.11. Ustalanie pierwszeństwa operatorów 59 2.12. Osiąganie więcej przy mniejszej liczbie znaków 61 2.13. Tworzenie strumienia wywołań funkcji 62 2.14. Unikanie najpowszechniejszych pomyłek 65 3. Korzystanie z oprogramowania 71 3.1. Sprawdzanie i wyznaczanie katalogu roboczego 71 3.2. Tworzenie nowego projektu RStudio 72 3.3. Zapisywanie przestrzeni roboczej 74 3.4. Przeglądanie historii wpisanych poleceń 75 3.5. Zapisywanie wyniku wcześniejszego polecenia 76 3.6. Wyświetlanie załadowanych pakietów poprzez ścieżkę wyszukiwania 77 3.7. Przeglądanie listy zainstalowanych pakietów 79 3.8. Uzyskiwanie dostępu do funkcji zawartych w pakiecie 80 3.9. Uzyskiwanie dostępu do wbudowanych zestawów danych 81 3.10. Instalowanie pakietów z repozytorium CRAN 82 3.11. Instalowanie pakietu z serwisu GitHub 84 3.12. Wyznaczanie lub zmiana domyślnego serwera CRAN 85 3.13. Uruchamianie skryptu 86 3.14. Uruchamianie skryptu wsadowego 87 3.15. Wyszukiwanie katalogu domowego R 89 3.16. Personalizowanie rozruchu R 91 3.17. Korzystanie z R i RStudio w chmurze 94 4. Dane wejściowe i wyjściowe 97 4.1. Wprowadzanie danych za pomocą klawiatury 97 4.2. Wyświetlanie mniejszej (lub większej) liczby znaków 98 4.3. Przekierowywanie wyników do pliku 100 4.4. Wyświetlanie listy plików 101 4.5. Problem z otwieraniem pliku w systemie Windows 103 4.6. Odczytywanie rekordów o stałej szerokości 104 4.7. Odczytywanie plików danych tabelarycznych 107 4.8. Odczytywanie plików CSV 110 4.9. Zapisywanie danych w pliku CSV 112 4.10. Odczytywanie danych tabelarycznych lub CSV z internetu 113 4.11. Odczytywanie danych z arkuszy Excel 114 4.12. Zapisywanie ramki danych w pliku Excel 116 4.13. Odczytywanie danych z pliku SAS 118 4.14. Odczytywanie danych z tabel HTML 120 4.15. Odczytywanie plików o skomplikowanej strukturze 122 4.16. Odczyt baz danych MySQL 126 4.17. Uzyskiwanie dostępu do bazy danych za pomocą pakietu dbplyr 129 4.18. Zapisywanie i transportowanie obiektów 131 5. Struktury danych 135 5.1. Dodawanie danych do wektora 142 5.2. Wstawianie danych do wektora 144 5.3. Reguła zawijania 144 5.4. Tworzenie wektora czynnikowego (zmiennej kategorialnej) 146 5.5. Łączenie wielu wektorów w jeden wektor i wektor czynnikowy 147 5.6. Tworzenie listy 149 5.7. Wybieranie elementów listy za pomocą ich pozycji 150 5.8. Wybieranie elementów listy po nazwie 152 5.9. Tworzenie listy asocjacyjnej nazwa/wartość 153 5.10. Usuwanie elementu z listy 155 5.11. Spłaszczanie listy do postaci wektora 156 5.12. Usuwanie elementów o wartości NULL z listy 157 5.13. Warunkowe usuwanie elementów listy 158 5.14. Inicjowanie macierzy 159 5.15. Wykonywanie operacji macierzowych 161 5.16. Nadawanie nazw opisowych rzędom i kolumnom macierzy 162 5.17. Wybór jednego rzędu/kolumny macierzy 163 5.18. Inicjowanie ramki danych z danymi kolumny 164 5.19. Inicjowanie ramki danych z danymi rzędu 165 5.20. Dołączanie rzędów do ramki danych 168 5.21. Wybór kolumn ramki danych za pomocą pozycji 170 5.22. Wybór kolumn ramki danych za pomocą nazwy 174 5.23. Zmienianie nazw kolumn w ramce danych 175 5.24. Usuwanie wartości NA z ramki danych 176 5.25. Wykluczanie kolumn za pomocą nazwy 177 5.26. Łączenie dwóch ramek danych 178 5.27. Scalanie kolumn dwóch ramek danych 179 5.28. Przekształcanie jednej wartości atomowej w inną 181 5.29. Przekształcanie jednego ustrukturyzowanego typu danych w inny 183 6. Przekształcenia danych 187 6.1. Stosowanie funkcji wobec każdego elementu listy 187 6.2. Stosowanie funkcji wobec każdego rzędu ramki danych 190 6.3. Stosowanie funkcji wobec każdego rzędu macierzy 191 6.4. Stosowanie funkcji wobec każdej kolumny 192 6.5. Stosowanie funkcji wobec wektorów równoległych lub list 194 6.6. Stosowanie funkcji wobec grup danych 196 6.7. Tworzenie nowej kolumny na podstawie jakiegoś warunku 197 7. Łańcuchy znaków i daty 199 7.1. Uzyskiwanie długości łańcucha znaków 201 7.2. Łączenie łańcuchów znaków 202 7.3. Wydobywanie fragmentów łańcuchów znaków 203 7.4. Rozdzielanie łańcucha znaków zgodnie z rozgranicznikiem 204 7.5. Zastępowanie fragmentów łańcuchów znaków 205 7.6. Tworzenie wszystkich kombinacji par łańcuchów znaków 206 7.7. Uzyskiwanie bieżącej daty 208 7.8. Przekształcanie łańcucha znaków w obiekt Date 208 7.9. Przekształcanie obiektu Date w łańcuch znaków 209 7.10. Przekształcanie roku, miesiąca i dnia w obiekt Date 210 7.11. Uzyskiwanie daty juliańskiej 211 7.12. Wydobywanie elementów składowych daty 212 7.13. Tworzenie sekwencji dat 213 8. Prawdopodobieństwo 215 8.1. Wyznaczanie liczby kombinacji 217 8.2. Generowanie kombinacji 218 8.3. Generowanie liczb losowych 219 8.4. Generowanie odtwarzalnych liczb losowych 220 8.5. Generowanie próby losowej 222 8.6. Generowanie sekwencji losowych 223 8.7. Losowe permutacje wektora 224 8.8. Obliczanie prawdopodobieństwa rozkładów dyskretnych 225 8.9. Obliczanie prawdopodobieństwa rozkładów ciągłych 226 8.10. Przekształcanie prawdopodobieństw w kwantyle 228 8.11. Tworzenie wykresu funkcji gęstości 229 9. Statystyka ogólna 235 9.1. Podsumowywanie danych 237 9.2. Obliczanie częstości względnych 239 9.3. Zestawianie wektorów czynnikowych w tabeli i tworzenie tablic wielodzielczych 240 9.4. Sprawdzanie niezależności zmiennych kategorialnych 241 9.5. Obliczanie kwantylów (i kwartylów) zestawu danych 242 9.6. Uzyskiwanie odwrotności kwantylu 243 9.7. Normalizowanie danych 244 9.8. Testowanie średniej próby (test t) 244 9.9. Kształtowanie przedziału ufności dla średniej 246 9.10. Kształtowanie przedziału ufności dla mediany 247 9.11. Testowanie proporcji próby 248 9.12. Kształtowanie przedziału ufności dla proporcji 249 9.13. Testowanie pod względem rozkładu normalnego 250 9.14. Testowanie przebiegów 251 9.15. Porównywanie średnich dwóch prób 252 9.16. Nieparametryczne porównywanie położenia dwóch prób 254 9.17. Testowanie korelacji pod względem istotności 256 9.18. Testowanie grup pod względem równych proporcji 257 9.19. Porównywanie parami średnich poszczególnych grup 259 9.20. Testowanie dwóch prób w kontekście tego samego rozkładu 260 10. Grafika 263 10.1. Tworzenie wykresu punktowego 267 10.2. Wstawianie tytułu i etykiet 267 10.3. Dodawanie (lub usuwanie) siatki 269 10.4. Stosowanie motywu wobec wykresu ggplot 272 10.5. Tworzenie wielogrupowego wykresu punktowego 277 10.6. Dodawanie (lub usuwanie) legendy 278 10.7. Rysowanie linii regresji na wykresie punktowym 282 10.8. Tworzenie wykresów par zmiennych 285 10.9. Tworzenie wykresów punktowych dla poszczególnych grup danych 287 10.10. Tworzenie wykresu kolumnowego 289 10.11. Umieszczanie przedziałów ufności na wykresie kolumnowym 292 10.12. Wprowadzanie kolorów na wykresie kolumnowym 295 10.13. Rysowanie linii łączącej pary punktów x i y 297 10.14. Zmiana rodzaju, szerokości i koloru linii 297 10.15. Tworzenie wykresu zawierającego wiele zestawów danych 301 10.16. Dodawanie linii pionowych lub poziomych 302 10.17. Tworzenie wykresu pudełkowego 304 10.18. Tworzenie po jednym wykresie pudełkowym na każdy poziom wektora czynnikowego 306 10.19. Tworzenie histogramu 308 10.20. Dodawanie oszacowania gęstości do histogramu 310 10.21. Tworzenie standardowego wykresu kwantyl-kwantyl 311 10.22. Tworzenie innych wykresów kwantyl-kwantyl 314 10.23. Rysowanie zmiennej w różnych kolorach 316 10.24. Tworzenie wykresu funkcji 319 10.25. Wyświetlanie wielu wykresów na jednej stronie 321 10.26. Zapisywanie wykresu do pliku 324 11. Regresja liniowa i analiza ANOVA 327 11.1. Przeprowadzanie prostej analizy liniowej 329 11.2. Przeprowadzanie wielorakiej regresji liniowej 331 11.3. Uzyskiwanie statystyk regresji 332 11.4. Omówienie podsumowania regresji 335 11.5. Przeprowadzanie regresji liniowej bez użycia punktu przecięcia z osią współrzędnych 338 11.6. Przeprowadzanie regresji wyłącznie przy użyciu zmiennych ściśle skorelowanych ze zmienną objaśnianą 339 11.7. Przeprowadzanie regresji liniowej z członami interakcyjnymi 342 11.8. Wybór najlepszych zmiennych regresji 344 11.9. Przeprowadzanie regresji na podzbiorze danych 349 11.10. Korzystanie ze wzorów w równaniu regresji 350 11.11. Przeprowadzanie regresji względem wielomianu 351 11.12. Regresja względem przekształconych danych 353 11.13. Wyszukiwanie najlepszego przekształcenia potęgowego (procedura Boxa-Coxa) 355 11.14. Kształtowanie przedziałów ufności dla współczynników regresji 359 11.15. Tworzenie wykresu elementów resztowych regresji 360 11.16. Diagnozowanie regresji liniowej 361 11.17. Wykrywanie najbardziej znaczących obserwacji 364 11.18. Testowanie wartości resztowych pod względem autokorelacji (test Durbina-Watsona) 366 11.19. Przewidywanie nowych wartości 367 11.20. Kształtowanie przedziałów predykcji 368 11.21. Przeprowadzanie jednoczynnikowej analizy ANOVA 369 11.22. Tworzenie wykresu interakcji 371 11.23. Wyszukiwanie różnic pomiędzy średnimi grup 372 11.24. Przeprowadzanie odpornej analizy ANOVA (test Kruskala-Wallisa) 375 11.25. Porównywanie modeli za pomocą analizy ANOVA 376 12. Przydatne sztuczki 379 12.1. Zaglądanie do danych 379 12.2. Wyświetlanie rezultatu przypisania 380 12.3. Sumowanie rzędów lub kolumn 382 12.4. Wyświetlanie danych w kolumnach 383 12.5. Grupowanie danych w przedziały 384 12.6. Określanie położenia danej wartości 385 12.7. Wybieranie co n-tego elementu wektora 385 12.8. Określanie minimów i maksimów 386 12.9. Tworzenie wszystkich kombinacji kilku zmiennych 388 12.10. Spłaszczanie ramki danych 389 12.11. Sortowanie ramki danych 390 12.12. Usuwanie atrybutów ze zmiennej 391 12.13. Odkrywanie struktury obiektu 392 12.14. Obliczanie czasu potrzebnego na realizację kodu 395 12.15. Wstrzymywanie ostrzeżeń i komunikatów o błędach 396 12.16. Pobieranie argumentów funkcji z listy 397 12.17. Definiowanie własnych operatorów binarnych 399 12.18. Blokowanie komunikatu rozruchowego 401 12.19. Przeglądanie i wyznaczanie zmiennych środowiskowych 401 12.20. Używanie sekcji kodu 402 12.21. Równoległe przetwarzanie kodu R na komputerze lokalnym 403 12.22. Równoległe przetwarzanie kodu R w sposób zdalny 406 13. Zaawansowane obliczenia numeryczne i statystyczne 411 13.1. Minimalizowanie lub maksymalizowanie funkcji jednoparametrowej 411 13.2. Minimalizowanie lub maksymalizowanie funkcji wieloparametrowej 412 13.3. Obliczanie wartości własnych i wektorów własnych 414 13.4. Przeprowadzanie analizy głównych składowych 415 13.5. Przeprowadzanie prostej regresji ortogonalnej 416 13.6. Wyszukiwanie skupień w danych 418 13.7. Przewidywanie zmiennej binarnej (regresja logistyczna) 421 13.8. Metody samowsporne 423 13.9. Analiza czynnikowa 425 14. Analiza szeregów czasowych 431 14.1. Reprezentowanie danych szeregów czasowych 433 14.2. Tworzenie wykresów danych szeregów czasowych 436 14.3. Wydobywanie najstarszych lub najnowszych obserwacji 437 14.4. Tworzenie podzbiorów z szeregów czasowych 439 14.5. Scalanie kilku szeregów czasowych 441 14.6. Uzupełnianie brakujących obserwacji w szeregach czasowych 443 14.7. Opóźnianie lub przyspieszanie szeregu czasowego 446 14.8. Obliczanie kolejnych różnic 447 14.9. Wykonywanie obliczeń na szeregu czasowym 449 14.10. Obliczanie średniej kroczącej 450 14.11. Stosowanie funkcji przy uwzględnieniu okresu kalendarzowego 451 14.12. Stosowanie funkcji rozwijającej 453 14.13. Tworzenie wykresu funkcji autokorelacji 455 14.14. Testowanie szeregów czasowych pod kątem autokorelacji 456 14.15. Tworzenie wykresu funkcji autokorelacji cząstkowej 457 14.16. Wyszukiwanie korelacji opóźnionych pomiędzy dwoma szeregami czasowymi 459 14.17. Usuwanie trendów z szeregów czasowych 461 14.18. Dopasowywanie modelu ARIMA 463 14.19. Usuwanie nieistotnych współczynników z modelu ARIMA 466 14.20. Diagnozowanie modelu ARIMA 468 14.21. Uzyskiwanie prognoz z modelu ARIMA 470 14.22. Tworzenie wykresu prognoz 471 14.23. Sprawdzanie występowania zjawiska równania do średniej w szeregu czasowym 472 14.24. Wygładzanie szeregu czasowego 475 15. Elementy prostego programowania 479 15.1. Wybór pomiędzy dwiema alternatywnymi opcjami: if/else 480 15.2. Przetwarzanie w pętli 482 15.3. Definiowanie funkcji 483 15.4. Tworzenie zmiennej lokalnej 485 15.5. Wybór pomiędzy wieloma alternatywnymi ścieżkami: funkcja switch 485 15.6. Definiowanie wartości domyślnych parametrów 487 15.7. Sygnalizowanie błędów 488 15.8. Ochrona przed błędami 489 15.9. Tworzenie funkcji anonimowej 490 15.10. Tworzenie zbioru funkcji wielokrotnego użytku 491 15.11. Automatyczne formatowanie kodu 492 16. Środowisko R Markdown i publikowanie 495 16.1. Tworzenie nowego dokumentu 496 16.2. Dodawanie tytułu, danych autora i daty 498 16.3. Formatowanie dokumentu tekstowego 499 16.4. Wstawianie nagłówków dokumentu 500 16.5. Wstawianie listy 500 16.6. Prezentowanie wyników kodu R 502 16.7. Kontrolowanie wyświetlania kodu i wyników 503 16.8. Wstawianie wykresu 505 16.9. Wstawianie tabeli 507 16.10. Wstawianie wygenerowanej tabeli 509 16.11. Wstawianie równań matematycznych 512 16.12. Generowanie wyniku w formacie HTML 513 16.13. Generowanie wyniku w formacie PDF 514 16.14. Generowanie wyników w formacie Microsoft Word 516 16.15. Generowanie pliku prezentacji 522 16.16. Tworzenie parametryzowanego raportu 524 16.17. Organizowanie pracy z dokumentami R Markdown 527
Sygnatura czytelni BWEAiI: XII L 46
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 149894 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Pro Linux system administration : learn to build systems for your business using free and open source software.
Indeks.
Wprowadzenie do Linuksa Dystrybucje Linuksa Red Hat Enterprise Linux CentOS Projekt Fedora Debian Linux Ubuntu Gentoo Którą dystrybucję należy więc wybrać? Którymi dystrybucjami zajmujemy się w niniejszej książce? Dobór sprzętu Obsługiwany sprzęt Źródła oprogramowania Wsparcie techniczne Instalacja Linuksa Dystrybucje LiveCD i maszyny wirtualne Dystrybucje LiveCD Maszyny wirtualne Instalacja serwera CentOS Instalacja dystrybucji Ubuntu Rozwiązywanie problemów Informacje diagnostyczne Ponowne uruchamianie instalatora Przydatne zasoby Wprowadzenie do aplikacji VirtualBox, Git i Vagrant Instalacja aplikacji VirtualBox Kwestie licencyjne Tworzenie nowej maszyny VirtualBox Instalacja aplikacji Git Pierwsze kroki z aplikacją Git Wprowadzenie do aplikacji Vagrant Instalacja aplikacji Vagrant Koncepcje związane z programem Vagrant Pierwsze kroki z aplikacją Vagrant Podstawy Linuksa Miłe dobrego początki Logowanie Porównanie Linuksa z systemem Microsoft Windows Interfejs graficzny Wiersz poleceń Powłoki Zachęta wiersza poleceń Wpisujemy pierwsze polecenie Zdalny dostęp Korzystanie z protokołu SSH Uzyskiwanie pomocy Użytkownicy i grupy Usługi i procesy Pakiety Pliki i systemy plików Typy plików i uprawnienia Łącza Użytkownicy, grupy i prawa własności Rozmiar i przestrzeń Data i czas Praca z plikami Odczyt plików Wyszukiwanie plików Kopiowanie plików Przenoszenie plików i zmienianie ich nazw Usuwanie plików Tworzenie łączy Edytowanie plików Użytkownicy i grupy Co się dzieje w momencie logowania? Praca z użytkownikami i grupami Polecenie sudo Tworzenie użytkowników Tworzenie grup Usuwanie użytkowników i grup Zarządzanie użytkownikami i grupami w środowisku graficznym Hasła Datowanie hasła Wyłączanie użytkowników Przechowywanie danych użytkownika Przechowywanie danych grupy Konfigurowanie powłoki i środowiska Kontrolowanie dostępu do serwera Konfigurowanie modułów PAM Jeszcze o poleceniu sudo Konfigurowanie polecenia sudo Rozruch i usługi Co się dzieje po włączeniu komputera? Włączenie zasilania Programy rozruchowe Uruchamianie systemu operacyjnego Mechanizm działania programu rozruchowego GRUB2 Korzystanie z menu GRUB2 Konfigurowanie programu GRUB2 Zabezpieczenie programu rozruchowego Co się dzieje po zakończeniu etapu rozruchu? Aplikacja Systemd Program Upstart — inicjator systemu Ubuntu Wspomnienia o aplikacji SystemV Zarządzanie usługami Zarządzanie usługami za pomocą programu Systemd Wyłączanie i ponowne uruchamianie komputera z zainstalowaną dystrybucją Linuksa Harmonogramowanie usług i poleceń Liczniki czasowe inicjatora Systemd Wprowadzenie do narzędzia Cron Sieci i zapory sieciowe Wprowadzenie do sieci i ustawień sieciowych Wprowadzenie do interfejsów Zarządzanie interfejsami Konfigurowanie sieci za pomocą skryptów Podstawy modelu TCP/IP Ogólne metody rozwiązywania problemów z siecią Polecenie ping Program MTR Komenda tcpdump Narzędzie netcat Polecenie dig Inne narzędzia do rozwiązywania problemów sieciowych Dodawanie tras i przekierowywanie pakietów Pakiet Netfilter i polecenie iptables Mechanizm działania pakietu Netfilter/polecenia iptables Tablice Łańcuchy Polityki Translacja adresów sieciowych Korzystanie z polecenia firewall-cmd Polecenie ufw Korzystanie z polecenia iptables Objaśnienie reguł zapory Dzienniki połączeń, ograniczanie szybkości i zabezpieczanie zapory Netfilter Więcej informacji na temat polecenia firewall-cmd Osłony TCP Konfigurowanie połączenia ppp Konfiguracja łącza ADSL za pomocą polecenia nmcli Zarządzanie pakietami Wprowadzenie do zarządzania pakietami Zarządzanie pakietami w dystrybucji CentOS Informacje wstępne Narzędzie Application Installer Menedżer YUM Menedżer DNF, czyli „dandysowaty" menedżer YUM Pakiety RPM Zarządzanie pakietami w dystrybucji Ubuntu Aplikacja aptitude Zarządzanie pakietami w menedżerze Ubuntu Software App Menedżer dpkg Sprawdzanie szczegółowych informacji o pakietach Przeglądanie zawartości pakietu Wyszukiwanie plików Instalowanie pakietów Usuwanie pakietów Kompilowanie ze źródła Konfiguracja Kompilacja — polecenie make Instalacja Odinstalowanie Tworzenie pakietów za pomocą programu FPM Zarządzanie pamięcią masową i przywracanie sprawności po wystąpieniu awarii Podstawowe informacje o pamięciach masowych Urządzenia Partycje Systemy plików Tworzenie systemu plików wymiany Tworzenie partycji ext4 Dostosowywanie opcji systemów plików ext2, ext3 i ext4 System plików XFS System plików Btrfs Systemy plików do współdzielenia danych Inne systemy plików Korzystanie z systemu plików Automatyzowanie procesu montowania Sprawdzanie użycia systemów plików Macierze RAID Typy konfiguracji RAID Zarządzanie woluminami logicznymi Tworzenie grup i woluminów Rozszerzanie woluminu logicznego Zmniejszanie woluminu logicznego Polecenia menedżera LVM Poawaryjne odzyskiwanie danych Problemy z programem rozruchowym Awaria dysku Zaprzęganie Linuksa do pracy Usługi infrastrukturalne: NTP, DNS, DHCP i SSH Synchronizowanie czasu Konfigurowanie czasu za pomocą polecenia timedatectl Protokół czasu sieciowego Globalna pula serwerów NTP Chrony System nazw domenowych Serwery główne Przepytywanie serwerów nazw Buforowanie systemu DNS Autorytatywne serwery DNS Dynamiczny system nazw domenowych Protokół dynamicznego konfigurowania komputerów Instalacja i konfiguracja Przydzielanie statycznej dzierżawy Dynamiczne aktualizacje DNS Ręczna zmiana wpisów DNS Bezpieczna powłoka Tworzenie i rozsyłanie kluczy Agent SSH Usprawnianie konfiguracji SSH Szybkie i bezpieczne przesyłanie plików Usługi internetowe i bazodanowe Serwer internetowy Apache Instalacja i konfiguracja Wydajność demona httpd Ograniczanie dostępu Moduły Uprawnienia plików i katalogów Baza danych SQL Instalacja Testowanie serwera Silniki bazy danych MariaDB Podstawowa konfiguracja silnika XtraDB Podstawy zarządzania serwerem MariaDB Zarządzanie treścią witryn internetowych Obecność w internecie Zabezpieczanie usług internetowych za pomocą certyfikatów SSL/TLS Tworzenie certyfikatów HTTPS za pomocą urzędu Let's Encrypt Inne aplikacje internetowe Zapisywanie stron w pamięci podręcznej Aplikacja Squid-Cache Usługi pocztowe Mechanizm działania poczty e-mail Co się dzieje w momencie wysłania wiadomości e-mail? Co się dzieje po wysłaniu wiadomości e-mail? Konfigurowanie serwera pocztowego Instalacja Uruchamianie serwera Postfix Informacje o konfiguracji serwera Postfix Konfiguracja początkowa Testowanie serwera Postfix Wybór formatu skrzynki pocztowej Dodatkowa konfiguracja serwera Postfix Szyfrowanie Uwierzytelnianie Tabele wyszukiwania Postfix i wirtualni użytkownicy Gdzie uzyskać pomoc (agent Postfix)? Walka z wirusami i spamem Zwalczanie spamu Antywirus Instalacja aplikacji ClamAV Konfigurowanie skanera ClamAV Co robić z zainfekowaną pocztą? Środowiska SPF i DKIM, kontrolowanie poczty e-mail Konfigurowanie protokołów IMAP i POP3 Protokół IMAP Protokół POP3 Jakie występują różnice? Wybór odpowiedniego protokołu Wprowadzenie do serwera Dovecot IMAP Wirtualne domeny i użytkownicy Alternatywne serwery pocztowe dla środowiska Linux Udostępnianie i drukowanie plików Udostępnianie plików za pomocą narzędzi Samba i NFS Samba Konfigurowanie kontrolera Samba AD Testowanie środowiska Samba Konfigurowanie udziałów Samba Dodawanie użytkowników do serwera Samba Wymagane reguły iptables dla środowiska Samba Montowanie udziałów Samba w dystrybucji Linux Montowanie udziałów w systemie Mac OS Zasoby Udziały NFS — udostępnianie danych pomiędzy środowiskami Linux Rozwiązywanie problemów z systemem NFS Zasoby Rozproszone sieciowe systemy plików GlusterFS Zarządzanie dokumentami Korzystanie z systemów zarządzania dokumentami Serwery drukowania Serwer CUPS Kopie zapasowe i odzyskiwanie danych Planowanie działań odtworzeniowych Proces sporządzania kopii zapasowych Kwestie do przemyślenia Sieciowe kopie zapasowe Stosowanie komendy rsync Komunikacja rsync poprzez protokół SSH Tworzenie kopii zapasowych za pomocą usługi Duply Konfigurowanie komór S3 Zasady użytkownika usługi AWS Testowanie dostępu do komory S3 Instalowanie i konfigurowanie aplikacji Duply Oprogramowanie Bareos Pobieranie oprogramowania Konfigurowanie bazy danych Konfigurowanie serwera Bareos Zarządzanie serwerem Bareos za pomocą narzędzia bconsole System GlusterFS jako magazyn kopii zapasowych Tworzenie kopii zapasowych baz danych za pomocą wtyczek serwera Bareos Wprowadzenie do interfejsu internetowego Bareos Wirtualne sieci prywatne Nasza przykładowa sieć Wprowadzenie do aplikacji OpenVPN Instalacja programu OpenVPN Uruchamianie i zatrzymywanie aplikacji OpenVPN Konfigurowanie usługi OpenVPN Udostępnianie zasobów głównego biura poprzez sieć OpenVPN Połączenia VPN dla użytkowników mobilnych Rozwiązywanie problemów z aplikacją OpenVPN Usługi katalogowe Czym jest protokół LDAP? Kwestie do przemyślenia Implementacja Instalacja Instalacja w dystrybucji CentOS Instalacja w dystrybucji Ubuntu Konfiguracja Wymagania Konfiguracja serwera SLAPD Tworzenie i dodawanie schematów oraz wyświetlanie ich listy Listy kontroli dostępu Praca z demonem slapd Konfigurowanie klienta LDAP Zarządzanie serwerem LDAP i dostępne narzędzia Pliki LDIF a dodawanie użytkowników Dodawanie użytkowników z plików LDIF Przeszukiwanie drzewa LDAP Usuwanie wpisów z katalogu LDAP Nakładka zasad przechowywania haseł Testowanie list kontroli dostępu Tworzenie kopii zapasowej katalogu LDAP Menedżer kont LDAP — przeglądarkowy panel administracyjny Instalacja i konfiguracja Dodawanie wirtualnego serwera Apache dla interfejsu LAM Integracja z innymi usługami Rejestracja jednokrotna: scentralizowane uwierzytelnianie w dystrybucji Linux Mechanizm działania modułów PAM Uwierzytelnianie serwera internetowego Apache za pomocą usługi LDAP Monitorowanie i optymalizacja wydajności Podstawowe metody sprawdzania stanu komputera Wykorzystanie procesora Wykorzystanie pamięci Przestrzeń dyskowa Dzienniki zdarzeń Zaawansowane narzędzia Wykorzystanie procesora i pamięci operacyjnej Wykorzystanie przestrzeni wymiany Dostęp do dysku Więcej danych przy użyciu polecenia dstat Ciągłe monitorowanie wydajności Collectd Graphite Grafana Optymalizacja wydajności Limity zasobów Polecenie sysctl i system plików proc Urządzenia pamięci masowej Poprawienie systemu plików Moduły szeregujące odczyt/zapis danych Dzienniki zdarzeń i monitorowanie Dzienniki zdarzeń Demon journald Demon rsyslogd Konfigurowanie narzędzi rsyslog Konfigurowanie protokołu RELP Uruchamianie i zatrzymywanie usługi rsyslog Testowanie dzienników zdarzeń za pomocą narzędzia logger Zarządzanie dziennikami zdarzeń i ich rotacja Analizowanie i korelowanie dzienników Wprowadzenie do aplikacji Beats i Logstash Magazynowanie dzienników za pomocą narzędzia Elasticsearch Instalacja i konfiguracja interfejsu Kibana Źródła informacji Monitorowanie Wprowadzenie do interfejsu Nagios-Core Instalacja serwera Nagios Uruchamianie usługi Nagios Konfigurowanie serwera Nagios Konfigurowanie konsoli Nagios Rozwiązywanie problemów z usługą Nagios Zarządzanie konfiguracją Dostarczanie Dostarczanie usług za pomocą narzędzia Cobbler w dystrybucji CentOS MAAS Zarządzanie konfiguracją Wprowadzenie do programu Puppet Instalacja aplikacji Puppet Konfigurowanie środowiska Puppet Pisanie manifestu Połączenie z pierwszym klientem Tworzenie naszej pierwszej konfiguracji Stosowanie naszej pierwszej konfiguracji Wyznaczanie konfiguracji dla wielu komputerów Tworzenie relacji pomiędzy zasobami Korzystanie z szablonów Dodatkowe informacje na temat środowiska Puppet Rozwiązywanie problemów z programem Puppet Wprowadzenie do aplikacji Ansible Testowanie za pomocą narzędzia ServerSpec
Sygnatura czytelni BWEAiI: XII S 33
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 145856 N (1 egz.)
Książka
W koszyku
Bibliografia na stronach [603]-616. Indeks.
Wydajne projektowanie Witaj w świecie szybkiego projektowania (27) Czym jest szybkie projektowanie? (27) Skuteczne wdrożenie szybkiego projektowania (28) Strategia szybkiego projektowania (31) Ogólna strategia szybkiego projektowania (34) Cztery wymiary szybkości projektowania (36) Ogólne rodzaje szybkiego projektowania (44) Który wymiar ma największe znaczenie? (46)Alternatywna strategia szybkiego projektowania (48) Klasyczne błędy (55) Przykład popełniania klasycznych błędów (55) Wpływ błędów na harmonogram projektowania (62) Lista klasycznych błędów (63) Ucieczka z "wyspy Gilligana" (73) Podstawy projektowania (77) Podstawy zarządzania (80) Podstawy techniczne (85) Podstawy kontroli jakości (93) Postępowanie zgodne z instrukcjami (101) Zarządzanie ryzykiem (103) Elementy zarządzania ryzykiem (105) Identyfikacja ryzyka (107) Analiza ryzyka (112) Priorytetyzacja ryzyka (115) Kontrola ryzyka (117) Ryzyko, wysokie ryzyko i "loteria" (122) Szybkie projektowanie Główne problemy dotyczące szybkiego projektowania (129) Czy jeden rozmiar może być uniwersalny? (129) Jaki rodzaj szybkiego projektowania jest Ci potrzebny? (131) Szanse na ukończenie projektu w terminie (136) Postrzeganie a rzeczywistość (138) Tam, dokąd płynie wolno czas (140) Kompromisy w strategii szybkiego projektowania (144) Typowy schemat usprawniania harmonogramu (146) Droga ku szybkiemu projektowaniu (148) Planowanie cyklu życia (151) Klasyczny model kaskadowy (153) Nieprzemyślane pisanie kodu (157) Model spiralny (158) Zmodyfikowane modele kaskadowe (160) Prototypowanie ewolucyjne (163) Wieloetapowe dostarczanie produktu (164) Wytwarzanie dopasowane do harmonogramu (165) Ewolucyjne dostarczanie produktu (167) Wytwarzanie dopasowane do narzędzi (168) Oprogramowanie komercyjne (169) Wybór najszybszego cyklu życia dla Twojego projektu (170) Szacowanie (179) Opowieść o szacowaniu (181) Zarys procesu szacowania (188) Szacowanie rozmiaru (189) Szacowanie wysiłku (196) Szacowanie harmonogramu (197) Orientacyjne szacowanie harmonogramu (199) Zawężanie oszacowań (210) Sporządzanie harmonogramu (219) Tworzenie zbyt optymistycznych harmonogramów (221) Harmonogram pod presją (233) Projektowanie zorientowane na klienta (245) Wpływ klienta na strategię szybkiego projektowania (248) Rozwiązania zorientowane na klienta (250) Zarządzanie oczekiwaniami klienta (254) Motywacja (259) Typowe motywacje projektanta (261) Stosowanie pięciu najważniejszych czynników motywujących (264) Korzystanie z pozostałych czynników motywujących (270) Czynniki niszczące morale (273) Praca zespołowa (281) Zastosowania pracy zespołowej w inżynierii oprogramowania (283) Znaczenie pracy zespołowej w strategii szybkiego projektowania (284) Utworzenie wydajnego zespołu (286) Dlaczego zespoły zawodzą? (295) Długoterminowe budowanie zespołu (298) Wskazówki dotyczące budowania zespołu (300) Struktura zespołu (303) Czynniki wpływające na strukturę zespołu (305) Modele zespołów (308) Kierownicy a liderzy techniczni (317) Regulowanie zestawu funkcji (323) Początek projektu: redukcja zestawu funkcji (325) Środek projektu: kontrola przerostu funkcjonalności (334) Koniec projektu: usuwanie funkcji (343) Narzędzia zwiększające produktywność (347) Rola narzędzi zwiększających produktywność w strategii szybkiego projektowania (349) Strategia wykorzystywania narzędzi zwiększających produktywność (353) Nabywanie narzędzi zwiększających produktywność (355) Stosowanie narzędzi zwiększających produktywność (359) Syndrom "srebrnej kuli" (364) Ratowanie projektu (371) Sposoby ratowania projektu (373) Plan ratowania projektu (375) Sprawdzone rozwiązania (389) Komisja zatwierdzająca zmiany (403) Codzienne kompilacje i testy dymowe (405) Stosowanie codziennych kompilacji i testów dymowych (407) Zarządzanie ryzykiem w procesie codziennych kompilacji i testów dymowych (412) Skutki uboczne korzystania z codziennych kompilacji i testów dymowych (412) Oddziaływanie codziennych kompilacji i testów dymowych z innymi metodami (413) Czynniki decydujące o skutecznym stosowaniu codziennych kompilacji i testów dymowych (414) Przygotowanie architektury nastawione na zmianę (415) Stosowanie opisywanej metody (416) Zarządzanie ryzykiem podczas przygotowywania architektury nastawionego na zmianę (421) Skutki uboczne przygotowania architektury nastawionego na zmianę (422) Oddziaływanie przygotowania architektury nastawionego na zmianę z innymi metodami (422) Czynniki decydujące o skutecznym stosowaniu przygotowania architektury nastawionego na zmianę (423) Ewolucyjne dostarczanie produktu (425) Stosowanie ewolucyjnego dostarczania produktu (427) Zarządzanie ryzykiem w modelu ewolucyjnego dostarczania produktu (429) Skutki uboczne ewolucyjnego dostarczania produktu (430) Oddziaływanie ewolucyjnego dostarczania produktu z innymi metodami (431) Czynniki decydujące o skutecznym stosowaniu ewolucyjnego dostarczania produktu (432) Prototypowanie ewolucyjne (433) Stosowanie prototypowania ewolucyjnego (434)Zarządzanie ryzykiem w prototypowaniu ewolucyjnym (435) Skutki uboczne prototypowania ewolucyjnego (440) Oddziaływanie prototypowania ewolucyjnego z innymi metodami (440) Czynniki decydujące o skutecznym stosowaniu prototypowania ewolucyjnego (441) Ustanawianie celu (443) Inspekcje (445) Sesje JAD (447) Stosowanie metodologii JAD (448) Zarządzanie ryzykiem w metodologii JAD (456) Skutki uboczne stosowania sesji JAD (457) Oddziaływania metodologii JAD z innymi rozwiązaniami (458) Czynniki decydujące o skutecznym stosowaniu metodologii JAD (459) Wybór modelu cyklu życia (461) Pomiary (463) Stosowanie pomiarów (464) Zarządzanie ryzykiem w pomiarach (471) Skutki uboczne stosowania pomiarów (473) Oddziaływanie pomiarów z innymi metodami (473) Czynniki decydujące o skutecznym stosowaniu pomiarów (474) Rozbijanie celów na podetapy (477) Stosowanie metody rozbijania celów na podetapy (480) Zarządzanie ryzykiem podczas rozbijania celów na podetapy (483) Skutki uboczne rozbijania celów na podetapy (483) Oddziaływanie rozbijania celów na podetapy z innymi metodami (483) Czynniki decydujące o skutecznym rozbijaniu celów na podetapy (485) Zewnętrzni podwykonawcy (487) Wykorzystywanie zewnętrznych podwykonawców (489) Zarządzanie ryzykiem związanym z zewnętrznymi podwykonawcami (495) Skutki uboczne zatrudniania zewnętrznych podwykonawców (496)Zatrudnianie zewnętrznych podwykonawców a inne metody (496)Czynniki decydujące o skuteczności omawianej metody (497) Negocjacje zgodne z zasadami (499) Środowisko pracy (501) Zastosowania produktywnego środowiska pracy (503) Zarządzanie ryzykiem w produktywnym środowisku pracy (505) Skutki uboczne wprowadzenia produktywnego środowiska pracy (506) Oddziaływania środowiska pracy z innymi metodami (507) Czynniki decydujące o skutecznym wdrożeniu produktywnego środowiska pracy (508) Języki szybkiego projektowania (RDL) (509) Stosowanie języków RDL (513) Zarządzanie ryzykiem podczas stosowania języków RDL (513) Skutki uboczne stosowania języków RDL (515) Oddziaływanie języków RDL z innymi rozwiązaniami (515) Czynniki decydujące o skutecznym stosowaniu języków RDL (516) Przesiewanie wymagań (519) Wielokrotne wykorzystywanie zasobów (521) Stosowanie wielokrotnego wykorzystywania zasobów (522) Zarządzanie ryzykiem podczas wielokrotnego wykorzystywania zasobów (529) Skutki uboczne wielokrotnego wykorzystywania zasobów (530) Oddziaływanie wielokrotnego wykorzystywania zasobów z innymi metodami (530) Czynniki decydujące o skutecznym, wielokrotnym wykorzystywaniu zasobów (531) Wspólny cel (533) Stosowanie wspólnego celu (534) Zarządzanie ryzykiem podczas ustanawiania wspólnego celu (536) Skutki uboczne wspólnego celu (538) Oddziaływanie wspólnego celu z innymi metodami (538) Czynniki decydujące o sukcesie wspólnego celu (539) Spiralny model cyklu życia (541) Wieloetapowe dostarczanie produktu (543) Stosowanie wieloetapowego dostarczania produktu (546) Zarządzanie ryzykiem w wieloetapowym dostarczaniu produktu (549) Skutki uboczne wieloetapowego dostarczania produktu (550) Oddziaływanie wieloetapowego dostarczania produktu z innymi metodami (550) Czynniki decydujące o skutecznym korzystaniu z wieloetapowego dostarczania produktu (552) Zarządzanie zgodne z teorią W (553) Stosowanie zarządzania zgodnego z teorią W (555) Zarządzanie ryzykiem w teorii W (560) Skutki uboczne zarządzania zgodnego z teorią W (561) Oddziaływanie teorii W z innymi metodami (561) Czynniki decydujące o właściwym zarządzaniu zgodnym z teorią W (562) Prototypowanie z odrzuceniem (563) Stosowanie prototypowania z odrzuceniem (564) Zarządzanie ryzykiem w prototypowaniu z odrzuceniem (565) Skutki uboczne stosowania prototypowania z odrzuceniem (566) Oddziaływanie prototypowania z odrzuceniem z innymi metodami (566) Czynniki decydujące o skutecznym stosowaniu prototypowania z odrzuceniem (567) Projektowanie metodą okienek czasowych (569) Stosowanie projektowania metodą okienek czasowych (571) Zarządzanie ryzykiem w projektowaniu metodą okienek czasowych (574) Skutki uboczne stosowania metody okienek czasowych (575) Oddziaływanie projektowania metodą okienek czasowych z innymi rozwiązaniami (575) Czynniki decydujące o skutecznym projektowaniu metodą okienek czasowych (576) Zespół narzędziowy (579) Lista 10 największych zagrożeń (581) Prototypowanie interfejsu użytkownika (583) Stosowanie prototypowania interfejsu użytkownika (585) Zarządzanie ryzykiem w prototypowaniu interfejsu użytkownika (588) Skutki uboczne prototypowania interfejsu użytkownika (589) Oddziaływanie prototypowania interfejsu użytkownika z innymi rozwiązaniami (590) Czynniki decydujące o skutecznym prototypowaniu interfejsu użytkownika (590) Dobrowolna praca w nadgodzinach (593) Stosowanie pracy w dobrowolnych nadgodzinach (594) Zarządzanie ryzykiem przy dobrowolnej pracy w nadgodzinach (599) Skutki uboczne dobrowolnej pracy w nadgodzinach (600) Oddziaływanie dobrowolnej pracy w nadgodzinach z innymi rozwiązaniami (600) Czynniki decydujące o skutecznym wdrożeniu dobrowolnej pracy w nadgodzinach (601)
Sygnatura czytelni BWEAiI: XII J 69
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 144844 (1 egz.)
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 144419 N (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności