Data Mining (metoda)
Sortowanie
Źródło opisu
Książki, czasopisma i zbiory specjalne
(60)
Forma i typ
Książki
(58)
Publikacje fachowe
(5)
Artykuły
(2)
Publikacje dydaktyczne
(2)
Publikacje naukowe
(1)
Dostępność
dostępne
(37)
tylko na miejscu
(22)
wypożyczone
(3)
nieokreślona
(1)
Placówka
Wypożyczalnia
(41)
Biblioteka Międzywydziałowa
(4)
Biblioteka WEiZ
(3)
Magazyn
(8)
Biblioteka WEAiI
(7)
Autor
Bubak Marian
(3)
Jakubowski Jacek (1954- )
(3)
Fawcett Tom
(2)
Larose Daniel T. (1957- )
(2)
Matuk Konrad
(2)
Morzy Tadeusz
(2)
Provost Foster (1964- )
(2)
Seminarium StatSoft Polska (2002 ; Warszawa)
(2)
Seminarium StatSoft Polska (2005 ; Warszawa)
(2)
Sielicki Leszek
(2)
Szeliga Marcin
(2)
Wajda Rafał
(2)
Wiatr Kazimierz (1955- )
(2)
Wilbik Anna
(2)
Abrahams Brooke
(1)
Alt Matin
(1)
Andrzejewski Witold
(1)
Appleton Owen
(1)
Bobrowski Leon
(1)
Catlow John
(1)
Chądzyńska Agnieszka
(1)
Cios Krzysztof J
(1)
CoreGrid Integration Workshop (2006 ; Kraków)
(1)
Foreman John W
(1)
Froelich Wojciech
(1)
Gorawski Marcin
(1)
Gorlatch Sergei
(1)
Grus Joel
(1)
Hand David J. (1950- )
(1)
Jabkowski Piotr
(1)
Jędrzejowicz Piotr
(1)
Kielmer Anna
(1)
Klassen Mikhail
(1)
Koronacki Jacek
(1)
Krętowski Marek
(1)
Kuropatwa Anna
(1)
Lasek Mirosława (1955- )
(1)
Mannila Heikki
(1)
Mendrala Danuta
(1)
Meryk Radosław
(1)
Migut Grzegorz
(1)
Mitchell Ryan E
(1)
Moczko Jerzy
(1)
Morzy Mikołaj
(1)
O'Neil Cathy
(1)
Osowski Stanisław
(1)
Pedrycz Witold
(1)
Pontabry Donald
(1)
Priol Thierry
(1)
Płoski Zdzisław
(1)
Russell Mattew A
(1)
Sawka Krzysztof
(1)
Schutt Rachel
(1)
Seidman Claude (1964- )
(1)
Seminarium StatSoft Polska (2003 ; Warszawa / Kraków)
(1)
Seminarium StatSoft Polska (2004 ; Warszawa / Kraków)
(1)
Smyth Padhraic
(1)
Swinarski Roman W
(1)
Tadeusiewicz Ryszard (1947- )
(1)
Turala Michał
(1)
Turała Michał
(1)
Wakulicz-Deja Alicja
(1)
Walanus Adam
(1)
Watała Cezary
(1)
Weglinski J
(1)
Woźniak Michał
(1)
Wrembel Robert
(1)
Wójtowicz Piotr
(1)
Wątroba Janusz
(1)
Zakrzewicz Maciej
(1)
Ćwik Jan
(1)
Łukasik Szymon
(1)
Śmiatacz Krzysztof
(1)
Rok wydania
2010 - 2019
(24)
2000 - 2009
(36)
Okres powstania dzieła
2001-
(7)
Kraj wydania
Polska
(58)
nieznany (de)
(1)
Stany Zjednoczone
(1)
Język
polski
(55)
angielski
(5)
Temat
Budownictwo
(2412)
Zarządzanie
(2038)
Matematyka
(1930)
Elektrotechnika
(1896)
Przedsiębiorstwa
(1790)
Data Mining (metoda)
(-)
Fizyka
(1535)
Informatyka
(1502)
Maszyny
(1228)
Fizjoterapia
(1175)
Wytrzymałość materiałów
(1157)
Ochrona środowiska
(1023)
Sport
(1013)
Turystyka
(953)
Elektronika
(946)
Ekonomia
(932)
Mechanika
(932)
Automatyka
(916)
Język angielski
(874)
Samochody
(867)
Rachunkowość
(821)
Chemia
(808)
Rehabilitacja
(800)
Polska
(791)
Gospodarka
(778)
Komunikacja marketingowa
(761)
Technika
(743)
Konstrukcje budowlane
(727)
Wychowanie fizyczne
(725)
Przemysł
(723)
Prawo pracy
(712)
Unia Europejska
(699)
Piłka nożna
(696)
Transport
(673)
Elektroenergetyka
(667)
Marketing
(638)
Architektura
(637)
Innowacje
(620)
Naprężenia i odkształcenia
(614)
OZE
(606)
Programowanie (informatyka)
(590)
Trening
(586)
Energetyka
(585)
Programy komputerowe
(584)
Technologia chemiczna
(567)
Rolnictwo
(556)
Biomasa
(543)
Analiza numeryczna
(532)
Prawo
(524)
Odnawialne źródła energii
(520)
Sterowanie
(520)
Komputery
(517)
Materiałoznawstwo
(517)
Produkcja
(517)
Symulacja
(515)
Inwestycje
(508)
Praca
(503)
Zarządzanie jakością
(497)
Zarządzanie zasobami ludzkimi (HRM)
(496)
Analiza matematyczna
(495)
Dzieci
(491)
Energia elektryczna
(489)
Urbanistyka
(488)
Materiały budowlane
(482)
Logistyka gospodarcza
(480)
Rynek pracy
(474)
Finanse
(468)
Maszyny elektryczne
(468)
Przedsiębiorstwo
(468)
Szkolnictwo wyższe
(468)
Psychologia
(467)
Modele matematyczne
(465)
Internet
(464)
Metale
(462)
Nauka
(456)
Marketing internetowy
(453)
Systemy informatyczne
(448)
Statystyka matematyczna
(447)
Języki programowania
(433)
Skrawanie
(432)
Reklama
(431)
Rehabilitacja medyczna
(429)
Mechanika budowli
(425)
Działalność gospodarcza
(422)
Organizacja
(417)
Telekomunikacja
(413)
Metrologia
(412)
Pedagogika
(410)
Drgania
(409)
Trener
(406)
Ubezpieczenia społeczne
(394)
Controlling
(392)
Optymalizacja
(392)
Historia
(388)
Filozofia
(385)
Podatki
(385)
Statystyka
(384)
Socjologia
(383)
Banki
(379)
BHP
(375)
Rachunkowość zarządcza
(374)
Temat: miejsce
Polska
(1)
Gatunek
Materiały konferencyjne
(17)
Podręcznik
(8)
Podręczniki akademickie
(3)
Opracowanie
(2)
Podręczniki
(2)
Artykuł z czasopisma fachowego
(1)
Raport z badań
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(6)
Zarządzanie i marketing
(2)
Gospodarka, ekonomia, finanse
(1)
Socjologia i społeczeństwo
(1)
Kartoteka zagadnieniowa
Organizacja, Zarządzanie i Marketing
(2)
60 wyników Filtruj
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 132967 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Web scraping with Python : collecting data from the modern web.
Podtytuł według okładki.
Wydanie 2. odnosi się do oryginału.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Na książce także ISBN oryginału: 9781491985571.
Indeks.
Część I. Tworzenie pełzaczy 1.Twój pierwszy robot indeksujący Połączenie Wprowadzenie do biblioteki BeautifulSoup Instalacja biblioteki BeautifulSoup Korzystanie z biblioteki BeautifulSoup Stabilne połączenia i obsługa wyjątków 2.Zaawansowana analiza składniowa HTML Młotek nie zawsze jest potrzebny Kolejna porcja BeautifulSoup Funkcje find() i find_all() Inne obiekty biblioteki BeautifulSoup Poruszanie się po drzewach hierarchii Wyrażenia regularne Wyrażenia regularne w bibliotece BeautifulSoup Uzyskiwanie dostępu do atrybutów Wyrażenia lambda 3.Tworzenie robotów indeksujących Poruszanie się po pojedynczej domenie Pełzanie po całej witrynie Gromadzenie danych z całej witryny Pełzanie po internecie 4.Modele ekstrakcji danych Planowanie i definiowanie obiektów Obsługa różnych szat graficznych Konstruowanie robotów indeksujących Poruszanie się po witrynach za pomocą paska wyszukiwania Poruszanie się po witrynach za pomocą odnośników Poruszanie się pomiędzy różnymi typami stron Właściwe podejście do procesu tworzenia modeli robotów indeksujących 5.Scrapy Instalacja biblioteki Scrapy Inicjowanie nowego pająka Pisanie prostego robota indeksującego Korzystanie z pająków przy użyciu reguł Tworzenie elementów Wyświetlanie elementów Potoki elementów Dzienniki zdarzeń w bibliotece Scrapy Dodatkowe zasoby 6.Przechowywanie danych Pliki multimedialne Przechowywanie danych w plikach CSV MySQL Instalacja środowiska MySQL Podstawowe polecenia Integracja ze środowiskiem Python Techniki bazodanowe i dobre rozwiązania Sześć stopni oddalenia w środowisku MySQL Alerty e-mail Część II. Zaawansowana ekstrakcja danych 7. Odczytywanie dokumentów Kodowanie dokumentu Pliki tekstowe Kodowanie tekstu a internet globalny Format CSV Odczyt plików CSV Format PDF Edytor Microsoft Word i pliki .docx 8.Oczyszczanie danych Oczyszczanie na poziomie kodu Normalizacja danych Oczyszczanie pozyskanych danych OpenRefine 9.Odczyt i zapis języków naturalnych Podsumowywanie danych Modele Markowa Sześć stopni oddalenia od Wikipedii — podsumowanie Natural Language Toolkit Instalacja i konfiguracja Analiza statystyczna za pomocą pakietu NLTK Analiza leksykologiczna za pomocą pakietu NLTK Dodatkowe zasoby 10.Kwestia formularzy i pól logowania Biblioteka Reąuests Przesyłanie podstawowego formularza Przyciski opcji, pola zaznaczania i inne mechanizmy wprowadzania danych Wysyłanie plików i obrazów Pola logowania i ciasteczka Podstawowe uwierzytelnianie protokołu HTTP Inne problemy z formularzami 11.Ekstrakcja danych a język JavaScript Krótkie wprowadzenie do języka JavaScript Popularne biblioteki JavaScriptu Ajax i dynamiczny HTML Uruchamianie kodu JavaScriptu w środowisku Python za pomocą biblioteki Selenium Dodatkowe obiekty WebDriver Obsługa przekierowań Końcowe uwagi na temat języka JavaScript 12.Ekstrakcja danych poprzez API Krótkie wprowadzenie do API Metody HTTP a API Dodatkowe informacje na temat odpowiedzi API Analizowanie składni formatu JSON Nieudokumentowane API Wyszukiwanie nieudokumentowanych API Dokumentowanie nieudokumentowanych API Automatyczne wyszukiwanie i dokumentowanie API Łączenie API z innymi źródłami danych Dodatkowe informacje na temat API 13.Przetwarzanie obrazów i rozpoznawanie tekstu Przegląd bibliotek Pillow Tesseract NumPy Przetwarzanie prawidłowo sformatowanego tekstu Automatyczne korygowanie obrazów Ekstrakcja danych z obrazów umieszczonych w witrynach Odczytywanie znaków CAPTCHA i uczenie aplikacji Tesseract Uczenie aplikacji Tesseract Ekstrakcja kodów CAPTCHA i przesyłanie odpowiedzi 14.Unikanie pułapek na boty Kwestia etyki Udawanie człowieka Dostosuj nagłówki Obsługa ciastek za pomocą języka JavaScript Wyczucie czasu to podstawa Popularne zabezpieczenia formularzy Wartości ukrytych pól wejściowych Unikanie wabików Być człowiekiem 15.Testowanie witryn internetowych za pomocą robotów indeksujących Wprowadzenie do testowania Czym są testy jednostkowe? Moduł unittest Testowanie Wikipedii Testowanie za pomocą biblioteki Selenium Interakcje z witryną Selenium czy unittest? 16.Zrównoleglanie procesu ekstrakcji danych Procesy i wątki Wielowątkowa ekstrakcja danych Wyścigi i kolejki Moduł threading Wieloprocesowa ekstrakcja danych Przykład z Wikipedią Komunikacja międzyprocesowa Wieloprocesowa ekstrakcja danych — metoda alternatywna 17.Zdalna ekstrakcja danych z internetu Powody korzystania z serwerów zdalnych Unikanie blokowania adresu IP Przenośność i rozszerzalność Tor PySocks Hosting zdalny Uruchamianie z poziomu serwisu hostingowego Uruchamianie z poziomu chmury Dodatkowe zasoby 18.Legalność i etyka ekstrakcji danych z internetu Znaki towarowe, prawa autorskie, patenty, ojej! 251 Prawo autorskie Naruszenie prawa własności rzeczy ruchomych Ustawa o oszustwach i nadużyciach komputerowych Plik robots.txt i warunki świadczenia usług Trzy roboty indeksujące Sprawa eBay przeciwko Bidder's Edge (prawo własności rzeczy ruchomych) Sprawa Stany Zjednoczone przeciwko Auernheimerowi (ustawa CFAA) Sprawa Field przeciwko Google (prawo autorskie i plik robots.txt)
Sygnatura czytelni BWEAiI: XII Ł 155
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148499 N (1 egz.)
Brak okładki
Książka
W koszyku
(Rozprawy / Politechnika Poznańska, ISSN 0551-6528 ; nr 430)
Bibliogr. s. [227]-239.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 124123 (1 egz.)
Książka
W koszyku
Eksploracja danych : metody i algorytmy / Tadeusz Morzy. - Warszawa : Wydawnictwo Naukowe PWN, 2013. - VIII, [2], 553, [1] s. : il. ; 24 cm.
Bibliogr. s. 525-548. Indeks.
Dla studentów informatyki, ekonomii, psychologii, socjologii i doktorantów zajmujacych sie eksploracja danych.
Sygnatura czytelni BWEAiI: XII F 28
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 135681 N (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Magazyn
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 117897 LE (1 egz.)
Książka
W koszyku
Bibliogr. s. [385]-388. Netogr. s. 388.
Dla studentów na studiach II i III stopnia na kierunkach Informatyka i Automatyka, a także dla analityków danych, specjalizującym się w życiu zawodowym w analizie danych i odkrywaniu wiedzy z baz i hurtowni danych.
Sygnatura czytelni BWEAiI: XII Z 64
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 135717 N (1 egz.)
Brak okładki
Książka
W koszyku
(Onepress)
U dołu s. tyt. i grzb. również nazwa wydaw. oryg.: O'Reilly.
Bibliogr. s. 345-350. Indeks.
Sygnatura czytelni BWZ: XIII B 58
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEiZ
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. E 5195 (1 egz.)
Książka
W koszyku
(Onepress)
Na grzbiecie również nazwa wydawcy oryginału: O'Reilly.
Bibliografia na stronach 345-350. Indeks.
Wstęp: myślenie w kategoriach analityki danych Wszechobecność możliwości pozyskiwania danych Przykład: huragan Frances Przykład: prognozowanie odpływu klientów Nauka o danych, inżynieria i podejmowanie decyzji na podstawie danych Przetwarzanie danych i Big Data Od Big Data 1.0 do Big Data 2.0 Dane i potencjał nauki o danych jako aktywa strategiczne Myślenie w kategoriach analityki danych Eksploracja danych i nauka o danych, nowe spojrzenie Chemia to nie probówki: nauka o danych kontra praca badacza danych Problemy biznesowe a rozwiązania z zakresu nauki o danych Podstawowe pojęcia: Zbiór kanonicznych zadań związanych z eksploracją danych; Proces eksploracji danych; Nadzorowana i nienadzorowana eksploracja danych. Od problemów biznesowych do zadań eksploracji danych Metody nadzorowane i nienadzorowane Proces eksploracji danych Zrozumienie uwarunkowań biznesowych Zrozumienie danych Przygotowanie danych Modelowanie Ewaluacja Wdrożenie Implikacje w sferze zarządzania zespołem nauki o danych Inne techniki i technologie analityczne Zapytania do baz danych Magazynowanie danych Analiza regresji Uczenie maszynowe i eksploracja danych Odpowiadanie na pytania biznesowe z wykorzystaniem tych technik 3. Wprowadzenie do modelowania predykcyjnego: od korelacji do nadzorowanej segmentacji Podstawowe pojęcia: Identyfikowanie atrybutów informatywnych; Segmentowanie danych za pomocą progresywnej selekcji atrybutów. Przykładowe techniki: Wyszukiwanie korelacji; Wybór atrybutów/zmiennych; Indukcja drzew decyzyjnych. Modele, indukcja i predykcja Nadzorowana segmentacja Wybór atrybutów informatywnych Przykład: wybór atrybutu z wykorzystaniem przyrostu informacji Nadzorowana segmentacja z użyciem modeli o strukturze drzewa Wizualizacja segmentacji Drzewa jako zbiory reguł Szacowanie prawdopodobieństwa Przykład: rozwiązywanie problemu odpływu abonentów z wykorzystaniem indukcji drzewa 4. Dopasowywanie modelu do danych Podstawowe pojęcia: Znajdowanie "optymalnych" parametrów modelu na podstawie danych; Wybieranie celu eksploracji danych; Funkcje celu; Funkcje straty. Przykładowe techniki: Regresja liniowa; Regresja logistyczna; Maszyny wektorów wspierających. Klasyfikacja za pomocą funkcji matematycznych Liniowe funkcje dyskryminacyjne Optymalizacja funkcji celu Przykład wydobywania dyskryminatora liniowego z danych Liniowe funkcje dyskryminacyjne do celów scoringu i szeregowania wystąpień Maszyny wektorów wspierających w skrócie Regresja za pomocą funkcji matematycznych Szacowanie prawdopodobieństwa klas i "regresja" logistyczna * Regresja logistyczna: kilka szczegółów technicznych Przykład: indukcja drzew decyzyjnych a regresja logistyczna Funkcje nieliniowe, maszyny wektorów wspierających i sieci neuronowe Nadmierne dopasowanie i jego unikanie Podstawowe pojęcia: Generalizacja; Dopasowanie i nadmierne dopasowanie; Kontrola złożoności. Przykładowe techniki: Sprawdzian krzyżowy; Wybór atrybutów; Przycinanie drzew; Regularyzacja. Generalizacja Nadmierne dopasowanie ("przeuczenie") Badanie nadmiernego dopasowania Dane wydzielone i wykresy dopasowania Nadmierne dopasowanie w indukcji drzew decyzyjnych Nadmierne dopasowanie w funkcjach matematycznych Przykład: nadmierne dopasowanie funkcji liniowych * Przykład: dlaczego nadmierne dopasowanie jest niekorzystne? Od ewaluacji danych wydzielonych do sprawdzianu krzyżowego Zbiór danych dotyczących odpływu abonentów - nowe spojrzenie Krzywe uczenia się Unikanie nadmiernego dopasowania i kontrola złożoności Unikanie nadmiernego dopasowania w indukcji drzew decyzyjnych Ogólna metoda unikania nadmiernego dopasowania * Unikanie nadmiernego dopasowania w celu optymalizacji parametrów 6. Podobieństwo, sąsiedzi i klastry Podstawowe pojęcia: Obliczanie podobieństwa obiektów opisanych przez dane; Wykorzystywanie podobieństwa do celów predykcji; Klastrowanie jako segmentacja oparta na podobieństwie. Przykładowe techniki: Poszukiwanie podobnych jednostek; Metody najbliższych sąsiadów; Metody klastrowania; Miary odległości do obliczania podobieństwa. Podobieństwo i odległość Wnioskowanie metodą najbliższych sąsiadów Przykład: analityka whisky Najbliżsi sąsiedzi w modelowaniu predykcyjnym Ilu sąsiadów i jak duży wpływ? Interpretacja geometryczna, nadmierne dopasowanie i kontrola złożoności Problemy z metodami najbliższych sąsiadów Kilka istotnych szczegółów technicznych dotyczących podobieństw i sąsiadów Atrybuty heterogeniczne * Inne funkcje odległości * Funkcje łączące: obliczanie wskaźników na podstawie sąsiadów 165 Klastrowanie Przykład: analityka whisky - nowe spojrzenie Klastrowanie hierarchiczne Najbliżsi sąsiedzi na nowo: klastrowanie wokół centroidów Przykład: klastrowanie wiadomości biznesowych Zrozumienie wyników klastrowania * Wykorzystywanie uczenia nadzorowanego do generowania opisów klastrów Krok wstecz: rozwiązywanie problemu biznesowego kontra eksploracja danych 7. Myślenie w kategoriach analityki decyzji I: co to jest dobry model? Podstawowe pojęcia: Staranne rozważenie, czego oczekujemy od wyników nauki o danych; Wartość oczekiwana jako kluczowa platforma ewaluacji; Uwzględnianie odpowiednich porównawczych punktów odniesienia. Przykładowe techniki: Różne miary ewaluacji; Szacowanie kosztów i korzyści; Obliczanie oczekiwanego zysku; Tworzenie metod bazowych dla porównań. Ewaluacja klasyfikatorów Zwykła dokładność i jej problemy Macierz pomyłek Problemy z niezrównoważonymi klasami Problemy nierównych kosztów i korzyści Generalizowanie poza klasyfikacją Kluczowa platforma analityczna: wartość oczekiwana Wykorzystywanie wartości oczekiwanej do systematyzowania zastosowania klasyfikatora Wykorzystywanie wartości oczekiwanej do systematyzowania ewaluacji klasyfikatora Ewaluacja, skuteczność bazowa oraz implikacje dla inwestowania w dane 8. Wizualizacja skuteczności modelu Podstawowe pojęcia: Wizualizacja skuteczności modelu przy różnych rodzajach niepewności; Dalsze rozważania odnośnie tego, czego należy oczekiwać od wyników eksploracji danych. Przykładowe techniki: Krzywe zysku; Krzywe łącznej reakcji; Krzywe przyrostu; Krzywe ROC. Ranking zamiast klasyfikowania Krzywe zysku Wykresy i krzywe ROC Pole pod krzywą ROC (AUC) Krzywe łącznej reakcji i krzywe przyrostu Przykład: analityka skuteczności w modelowaniu odpływu abonentów 9. Dowody i prawdopodobieństwa Podstawowe pojęcia: Jednoznaczne łączenie dowodów za pomocą twierdzenia Bayesa; Wnioskowanie probabilistyczne poprzez założenia warunkowej niezależności. Przykładowe techniki: Klasyfikacja bayesowska; Przyrost wartości dowodu. Przykład: targetowanie klientów reklam internetowych Probabilistyczne łączenie dowodów Prawdopodobieństwo łączne i niezależność Twierdzenie Bayesa Zastosowanie twierdzenia Bayesa w nauce o danych Niezależność warunkowa i naiwny klasyfikator bayesowski Zalety i wady naiwnego klasyfikatora bayesowskiego Model "przyrostu" wartości dowodu Przykład: przyrosty wartości dowodów z "polubień" na Facebooku Dowody w akcji: targetowanie klientów reklamami 10. Reprezentacja i eksploracja tekstu Podstawowe pojęcia: Znaczenie konstruowania przyjaznych eksploracji reprezentacji danych; Reprezentacja tekstu do celów eksploracji danych. Przykładowe techniki: Reprezentacja worka słów (bag of words); Kalkulacja TFIDF; N-gramy; Sprowadzanie do formy podstawowej (stemming); Ekstrakcja wyrażeń nazwowych; Modele tematyczne. Dlaczego tekst jest istotny Dlaczego tekst jest trudny Reprezentacja Worek słów (bag of words) Częstość termów Mierzenie rzadkości (sparseness): odwrotna częstość w dokumentach Łączenie reprezentacji: TFIDF Przykład: muzycy jazzowi * Związek IDF z entropią Oprócz worka słów N-gramy Ekstrakcja wyrażeń nazwowych Modele tematyczne Przykład: eksploracja wiadomości w celu prognozowania zmian cen akcji Myślenie w kategoriach analityki decyzji II: w kierunku inżynierii analitycznej Podstawowe pojęcie: Rozwiązywanie problemów biznesowych z wykorzystaniem nauki o danych rozpoczyna się od inżynierii analitycznej: projektowania rozwiązania analitycznego z wykorzystaniem dostępnych danych, narzędzi i technik. Przykładowa technika: Wartość oczekiwana jako platforma opracowania rozwiązania z zakresu nauki o danych. Targetowanie najlepszych potencjalnych klientów przesyłek organizacji pozyskujących fundusze Platforma wartości oczekiwanej: rozkład problemu biznesowego i ponowne zestawienie elementów rozwiązania Krótka dygresja na temat stronniczości selekcji Nowe, jeszcze bardziej zaawansowane spojrzenie na nasz przykład odpływu abonentów Platforma wartości oczekiwanej: strukturyzacja bardziej skomplikowanego problemu biznesowego Ocena wpływu zachęty Od rozkładu wartości oczekiwanej do rozwiązania z obszaru nauki o danych Inne zadania i techniki nauki o danych Podstawowe pojęcia: Nasze podstawowe pojęcia jako baza wielu typowych technik nauki o danych; Znaczenie wiedzy o elementach składowych nauki o danych. Przykładowe techniki: Zależność i współwystępowanie; Profilowanie zachowań; Predykcja połączeń; Redukcja danych; Eksploracja informacji ukrytych; Rekomendowanie filmów; Rozkład błędu pod względem stronniczości - wariancji; Zespoły modeli; Wnioskowanie przyczynowe z danych. Współwystąpienia i zależności: znajdowanie elementów, które idą w parze Pomiar zaskoczenia: przyrost i dźwignia Przykład: piwo i kupony loteryjne Zależności pomiędzy polubieniami na Facebooku Profilowanie: znajdowanie typowego zachowania Predykcja połączeń i rekomendacje społecznościowe Redukcja danych, informacje ukryte i rekomendacje filmów Stronniczość, wariancja i metody zespalania Oparte na danych wyjaśnianie przyczynowe i przykład marketingu wirusowego . Nauka o danych i strategia biznesowa Podstawowe pojęcia: Nasze zasady jako podstawa sukcesu firmy działającej na podstawie danych; Zdobywanie i utrzymywanie przewagi konkurencyjnej za pomocą nauki o danych; Znaczenie dbałości o potencjał nauki o danych. Myślenie w kategoriach analityki danych, raz jeszcze Osiąganie przewagi konkurencyjnej przy pomocy nauki o danych Utrzymywanie przewagi konkurencyjnej przy pomocy nauki o danych Nadzwyczajna przewaga historyczna Wyjątkowa własność intelektualna Wyjątkowe niematerialne aktywa zabezpieczające Lepsi badacze danych Lepsze zarządzanie zespołem nauki o danych Pozyskiwanie badaczy danych i ich zespołów oraz opieka nad nimi Badanie studiów przypadku z zakresu nauki o danych Gotowość do przyjmowania kreatywnych pomysłów z każdego źródła Gotowość do oceny propozycji projektów z zakresu nauki o danych Przykładowa propozycja eksploracji danych Błędy w propozycji Big Red Dojrzałość firmy w sferze nauki o danych Podstawowe pojęcia nauki o danych Zastosowanie naszych podstawowych pojęć do nowego problemu: eksploracji danych urządzeń przenośnych Zmiana sposobu myślenia o rozwiązaniach problemów biznesowych Czego dane nie mogą dokonać: nowe spojrzenie na decydentów Prywatność, etyka i eksploracja danych dotyczących konkretnych osób Czy jest coś jeszcze w nauce o danych? Ostatni przykład: od crowdsourcingu do cloudsourcingu Kilka słów na zakończenie A. Przewodnik dotyczący oceny propozycji Zrozumienie uwarunkowań biznesowych i zrozumienie danych Przygotowanie danych Modelowanie Ewaluacja i wdrożenie B. Jeszcze jedna przykładowa propozycja Scenariusz i propozycja Wady propozycji GGC
Sygnatura czytelni BMW: VI Ę 380 (nowy)
Ta pozycja znajduje się w zbiorach 2 placówek. Rozwiń listę, by zobaczyć szczegóły.
Wypożyczalnia
Wszystkie egzemplarze są obecnie wypożyczone: sygn. 148270 (1 egz.)
Biblioteka Międzywydziałowa
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148042 N (1 egz.)
Książka
W koszyku
Tytuł oryginału: Mining the social web: data mining Facebook, Twitter, Linkedin, Google+, GitHub, and more.
Wydanie 3. odnosi się do oryginału.
Na stronie tytułowej również informacje o miejscach wydania i wydawcy oryginału - O'Reilly.
Na książce także ISBN oryginału: 9781491985045.
Indeks.
1. Eksploracja Twittera: odkrywanie trendów, dowiadywanie się, o czym się rozmawia, i trochę więcej 27 1.2. Dlaczego Twitter to jest "to"? 28 1.3. Odkrywanie API Twittera 30 1.3.1. Podstawowa terminologia związana z Twitterem 30 1.3.2. Tworzenie połączenia z API Twittera 33 1.3.3. Odkrywanie trendów 36 1.3.4. Wyszukiwanie tweetów 40 1.4. Analiza 140 (lub więcej) znaków 46 1.4.1. Wyodrębnianie podmiotów z tweetów 47 1.4.2. Analizowanie tweetów i występujących w nich podmiotów z wykorzystaniem analizy częstości 49 1.4.3. Obliczanie różnorodności leksykalnej tweetów 51 1.4.4. Badanie wzorców w retweetach 53 1.4.5. Wizualizacja danych częstości za pomocą histogramów 55 2. Eksploracja Facebooka: analizowanie fanpage'y, znajomości i więcej 63 2.2. Interfejs API Graph Facebooka 64 2.2.1. Wprowadzenie do API Graph 66 2.2.2. Protokół Open Graph 70 2.3. Analiza połączeń grafu społecznościowego 75 2.3.1. Analizowanie stron Facebooka 78 2.3.2. Manipulowanie danymi z wykorzystaniem pakietu pandas 88 3. Eksploracja Instagrama: komputerowy wzrok, sieci neuronowe, rozpoznawanie obiektów i wykrywanie twarzy 99 3.2. Poznawanie API Instagrama 101 3.2.1. Tworzenie żądań do API Instagrama 101 3.2.2. Odczytywanie własnego kanału na Instagramie 103 3.2.3. Pobieranie medium według hashtagu 105 3.3. Anatomia posta na Instagramie 105 3.4. Szybki kurs na temat sztucznych sieci neuronowych 108 3.4.1. Trening sieci neuronowej pod kątem "oglądania" zdjęć 109 3.4.2. Rozpoznawanie cyfr pisanych odręcznie 111 3.4.3. Rozpoznawanie obiektów na zdjęciach przy użyciu wstępnie przeszkolonych sieci neuronowych 116 3.5. Wykorzystanie sieci neuronowych do postów na Instagramie 119 3.5.1. Oznaczanie zawartości obrazu 119 3.5.2. Wykrywanie twarzy na zdjęciach 121 4. Eksploracja sieci LinkedIn: stanowiska, współpracownicy i nie tylko 127 4.1. Przegląd 128 4.2. Poznawanie API LinkedIna 128 4.2.1. Tworzenie żądań do API LinkedIn 129 4.2.2. Pobieranie połączeń LinkedIn w pliku CSV 132 4.3. Krótki kurs grupowania danych 132 4.3.1. Normalizacja danych w celu umożliwienia analizy 135 4.3.2. Mierzenie podobieństwa 145 4.3.3. Algorytmy klasteryzacji 147 5. Eksploracja danych z plików tekstowych: obliczanie podobieństwa dokumentów, wyodrębnianie kolokacji i inne 163 5.2. Pliki tekstowe 164 5.3. Wprowadzenie do TF-IDF 166 5.3.1. Częstość terminu 166 5.3.2. Odwrotna częstość dokumentu 168 5.3.3. TF-IDF 169 5.4. Odpytywanie danych w języku naturalnym za pomocą TF-IDF 172 5.4.1. Natural Language Toolkit - wprowadzenie 172 5.4.2. Zastosowanie współczynnika TF-IDF do języka naturalnego 176 5.4.3. Wyszukiwanie podobnych dokumentów 177 5.4.4. Analiza bigramów w języku naturalnym 184 5.4.5. Refleksje na temat analizy danych języka naturalnego 193 6. Eksploracja stron internetowych: przetwarzanie języka naturalnego w celu zrozumienia języka ludzkiego, tworzenie podsumowań postów na blogu i inne 197 6.2. Scraping, parsowanie i crawling stron internetowych 199 6.2.1. Przeszukiwanie wszerz w crawlingu stron internetowych 202 6.3. Odkrywanie semantyki przez dekodowanie składni 205 6.3.1. Przetwarzanie języka naturalnego krok po kroku 207 6.3.2. Wykrywanie zdań w danych w języku naturalnym 210 6.3.3. Tworzenie streszczeń dokumentów 214 6.4. Zmiana paradygmatu. Analiza obiektów 222 6.4.1. Podsumowania danych w języku naturalnym 226 6.5. Jakość analiz do przetwarzania danych w języku naturalnym 230 7. Eksploracja skrzynek pocztowych: analiza, kto rozmawia z kim, o czym, jak często i nie tylko 237 7.2. Uzyskiwanie i przetwarzanie korpusu danych pocztowych 239 7.2.1. Uniksowe skrzynki pocztowe 239 7.2.2. Pobieranie danych Enron 243 7.2.3. Konwersja korpusu poczty na uniksowy format mbox 245 7.2.4. Konwertowanie uniksowych skrzynek pocztowych na obiekty DataFrame biblioteki pandas 247 7.3. Analiza korpusu Enron 249 7.3.1. Zapytania według zakresu dat (godzin) 250 7.3.2. Analiza wzorców w komunikacji nadawca-odbiorca 253 7.3.3. Wyszukiwanie wiadomości e-mail według słów kluczowych 257 7.4. Analiza własnych danych pocztowych 258 7.4.1. Dostęp do Twojej skrzynki Gmail za pomocą OAuth 260 7.4.2. Pobieranie i parsowanie wiadomości e-mail 262 7.4.3. Wizualizacja wzorców w e-mailu za pomocą frameworka Immersion 264 8. Eksploracja serwisu GitHub: badanie nawyków podczas współtworzenia oprogramowania, tworzenie grafów zainteresowań i nie tylko 269 8.1. Przegląd 270 8.2. Odkrywanie API GitHuba 270 8.2.1. Tworzenie połączenia do API serwisu GitHub 272 8.2.2. Tworzenie żądań do API GitHuba 275 8.3. Modelowanie danych za pomocą grafów właściwości 277 8.4. Analiza grafów zainteresowań serwisu GitHub 280 8.4.1. "Wysiewanie" grafu zainteresowań 281 8.4.2. Obliczanie miar centralności grafu 284 8.4.3. Rozszerzanie grafu zainteresowań z wykorzystaniem krawędzi "śledzi" dla użytkowników 287 8.4.4. Używanie węzłów jako punktów przestawnych w celu tworzenia bardziej wydajnych zapytań 296 8.4.5. Wizualizacja grafów zainteresowań 301 CZĘŚĆ II. TWITTER. RECEPTURY 9. Twitter. Receptury 309 9.1. Dostęp do interfejsu API Twittera dla celów programistycznych 310 9.2. Wykorzystanie OAuth w celu uzyskania dostępu do interfejsu API Twittera dla aplikacji produkcyjnych 311 9.3. Odkrywanie trendów 315 9.4. Wyszukiwanie tweetów 316 9.5. Konstruowanie wygodnych wywołań funkcji 318 9.6 Zapisywanie i przywracanie danych JSON z wykorzystaniem plików tekstowych 319 9.7. Zapisywanie danych JSON i uzyskiwanie dostępu do nich za pomocą MongoDB 320 9.8. Pobieranie próbek z mechanizmu firehose Twittera za pomocą API Streaming 323 9.9. Pobieranie danych szeregów czasowych 324 9.10. Wyodrębnianie podmiotów z tweetów 326 9.11. Znajdowanie najpopularniejszych tweetów w kolekcji 327 9.12. Znajdowanie najpopularniejszych obiektów w kolekcji tweetów 329 9.13. Tabularyzacja analizy częstości 330 9.14. Znajdowanie użytkowników, którzy retweetowali status 331 9.15. Wyodrębnianie przypisania retweeta 333 9.16. Wykonywanie odpornych na błędy żądań do Twittera 334 9.17. Pobieranie informacji o profilu użytkownika 337 9.18. Wyodrębnianie podmiotów tweeta z dowolnego tekstu 338 9.19. Pobieranie wszystkich znajomych lub obserwatorów użytkownika 339 9.20. Analiza znajomych i obserwatorów użytkownika 341 9.21. Zbieranie tweetów użytkownika 342 9.22. Crawling grafu znajomości 344 9.23. Analiza treści tweetów 346 9.24. Tworzenie streszczeń celów łączy 347 9.25. Analizowanie ulubionych tweetów użytkownika 350 A. Informacje o maszynie wirtualnej przeznaczonej dla tej książki 357 B. Elementarz OAuth 359 C. Porady i wskazówki na temat Pythona i środowiska Jupyter Notebook 363
Sygnatura czytelni BWEAiI: XII Ź 153
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 148496 N (1 egz.)
Książka
W koszyku
(O'Reilly)
Na okł.: Unikalne wprowadzenie do nauki o danych!
Indeks.
Sygnatura czytelni BWEAiI: XII J 47
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 139386 N (1 egz.)
Brak okładki
Książka
W koszyku
U góry s. tyt. i okł.: Microsoft.
U dołu koł.: Naucz się uzyskiwać przydatne informacje zawarte w ogromnych zbiorach danych. IT Professional and Developer.
Indeks.
Dla pracowników informatycznych, którzy projektują, wdrażają i użytkują Analysis Services oraz Microsoft Data Mining.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 108196, 103771 (2 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 106000 L (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 105998 L (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 108352 L (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 110595 L (1 egz.)
Brak okładki
Książka
W koszyku
Data mining : poznaj siebie i swoich klientów. - Warszawa ; Kraków : StatSoft Polska - Sp., 2005. - 120 s. : rys., schem., tab., wykr. ; 24 cm.
(Zastosowania Statystyki i Data Mining)
Dane o impr. z Internetu.
Bibliogr. przy ref.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 112718 L (1 egz.)
Brak okładki
Książka
W koszyku
Statystyka i data mining w badaniach naukowych / aut. Cezary Watała [i in.]. - Warszawa ; Kraków : StatSoft Polska - Sp., 2005. - 116 s. : rys., tab., wykr. ; 24 cm.
(Zastosowania Statystyki i Data Mining)
Dane o impr. z Internetu.
Bibliogr. przy ref.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 112720 L (1 egz.)
Książka
W koszyku
Data science i uczenie maszynowe / Marcin Szeliga. - Warszawa : Wydawnictwo Naukowe PWN, 2017. - XXVI, [2], 371, [1] s. : il. ; 24 cm.
Zawiera polsko-angielski i angielsko-polski słownik terminów data science.
Bibliogr., netogr. s. 353-[359].
Dla studentów studiów stacjonarnych i zaocznych kierunków informatycznych, zarządzania i marketingu oraz osób zawodowo pracujących w tych dziedzinach.
O czym jest ta książka? Data science Uczenie maszynowe Dla kogo jest ta książka? Narzędzia Usługa Azure ML Język R Microsoft R Open Przykładowe dane Konwencje i oznaczenia 1. Uczenie maszynowe jako element eksperymentów data science 1.1. Eksploracja danych jako technika wspomagania decyzji 1.2. Modelowanie 1.3. Wiedza i proces uczenia 1.4. Hipotezy 1.5. Założenia eksperymentu data science 1.6. Dwa typy analiz 1.7. Data science jako metoda naukowa 1.8. Przykładowy eksperyment – optymalizacja kampanii marketingowej 1.8.1. Zrozumienie problemu i określenie celów eksperymentu 1.8.2. Zrozumienie danych 1.8.3. Wstępne przetwarzanie danych 1.8.4. Modelowanie 1.8.5. Ocena 1.8.6. Wdrożenie 2. Ocena przydatności danych 2.1. Dane źródłowe 2.2. Zmienne 2.2.1. Rozkład częstości zmiennych 2.2.2. Graficzna prezentacja danych 2.2.3. Korelacje (związki między zmiennymi) 2.3. Reprezentatywność danych 2.4. Duplikaty 2.5. Szeregi czasowe 3. Wstępne przetwarzanie danych 3.1. Uzupełnianie brakujących danych 3.2. Poprawianie błędnych danych 3.3. Zmienne numeryczne 3.3.1. Instalowanie dodatkowych bibliotek R w Azure ML 3.3.2. Wartości nietypowe (odstające) 3.3.3. Normalizacja 3.3.4. Dyskretyzacja 3.4. Zmienne kategoryczne 3.4.1. Problem jakości danych tekstowych 3.4.2. Uogólnienie (generalizacja) 3.4.3. Numerowanie stanów 3.4.4. Zmienne porządkowe 3.5. Szeregi czasowe 3.6. Wyrażenia języka naturalnego 3.7. Redukcja wymiarów 3.7.1. Usuwanie zmiennych na podstawie ich zdolności predykcyjnych 3.7.2. Analiza głównych składowych (PCA) 4. Wzbogacanie danych 4.1. Równoważenie danych 4.1.1. Usunięcie części przykładów większościowych 4.1.2. Nadpróbkowanie 4.2. Zmienne wyliczeniowe 4.3. Zastąpienie zmiennych wspólnym rozkładem prawdopodobieństwa 4.4. Wydzielenie danych testowych 4.4.1. Szeregi czasowe 4.4.2. Modele rekomendujące 4.4.3. Modele wykrywania oszustw 4.5. Wzorzec eksperymentu data science 5. Klasyfikacja 5.1. Klasyfikacja poprzez indukcję drzew decyzyjnych 5.1.1. Drzewa decyzyjne – definicja 5.1.2. Pojedyncze drzewa decyzyjne 5.1.3. Kombinacje drzew decyzyjnych 5.2. Klasyfikacja z użyciem maszyny wektorów nośnych 5.2.1. Przetwarzanie języka naturalnego przy użyciu maszyny wektorów nośnych 5.2.2. Modele maszyny wektorów nośnych i lokalnie głębokiej maszyny wektorów nośnych 5.3. Klasyfikacja probabilistyczna 5.3.1. Sieć Bayesa 5.3.2. Maszyna punktów Bayesa 5.4. Inne klasyfikatory dostępne w Studiu Azure ML 5.4.1. Inne klasyfikatory – omówienie 5.4.2. Modele eksploracji danych w języku R 5.5. Klasyfikatory binarne a klasyfikacja wieloklasowa 5.6. Wykrywanie oszustw jako przykład klasyfikacji binarnej 5.6.1. Oznaczenie obserwacji 5.6.2. Zrównoważenie danych i wydzielenie danych testowych 5.6.3. Wzbogacenie danych 6. Regresja 6.1. Model regresji wielorakiej 6.1.1 Wieloraka regresja liniowa 6.1.2. Estymacja bayesowska modelu regresji liniowej 6.2. Zmienne kategoryczne w modelach regresji 6.2.1. Regresja Poissona 6.2.2. Regresja porządkowa 6.3. Regresja kwantylowa 6.4. Regresja poprzez indukcję drzew decyzyjnych 6.5. Sztuczne sieci neuronowe 6.5.1. Perceptron 6.5.2. Sieci neuronowe a regresja 6.5.3. Metody minimalizacji błędu 6.5.4. Wsteczna propagacja błędów 6.5.5. Regresja z użyciem sieci neuronowej 6.5.6. Głębokie sieci neuronowe 7. Grupowanie (analiza skupień) 7.1. Na czym polega grupowanie 7.2. Algorytmy grupowania 7.2.1. Grupowanie hierarchiczne 7.2.2. Grupowanie iteracyjno-optymalizacyjne 7.3. Grupowanie w celu znajdowania podobnych obiektów 7.4. Grupowanie w celu kompresji 7.5. Wykrywanie anomalii 8. Rekomendowanie 8.1. Systemy rekomendujące 8.2. Odkrywanie asocjacji 8.3. Model Matchbox Recommender 8.3.1. Rekomendowanie przez filtrowanie kolektywne 8.3.2. Rekomendowanie przez filtrowanie cech przedmiotów i użytkowników (hybrydowe) 9. Prognozowanie 9.1. Szeregi czasowe 9.2. Naiwne metody prognozowania 9.3. Modele średniej ważonej 9.4. Modele ARIMA 9.5. Modele nieliniowe 9.6. Prognozowanie w Studiu Azure ML 10. Ocena i poprawa jakości modeli 10.1. Reguła powrotu do średniej 10.2. Kryteria oceny modeli eksploracji danych 10.2.1. Łatwość interpretacji 10.2.2. Trafność 10.2.3. Wiarygodność 10.2.4. Wydajność i skalowalność 10.2.5. Przydatność 10.3. Ocena jakości modeli klasyfikacyjnych 10.3.1. Moduł Evaluate Model 10.3.2. Macierz pomyłek 10.3.3. Krzywa ROC 10.3.4. Wykres precyzja w funkcji czułości i wykres zysku 10.3.5. Trafność klasyfikacji 10.3.6. Klasyfikatory wieloklasowe 10.4. Ocena jakości modeli regresyjnych 10.4.1. Miary oceny modeli 10.4.2. Walidacja krzyżowa 10.5. Ocena jakości modeli grupujących 10.6. Ocena jakości modeli rekomendujących 10.7. Ocena jakości modeli prognozujących 10.8. Porównanie jakości modeli 10.9. Poprawa jakości modeli 10.9.1. Automatyczna poprawa jakości modeli uczenia nadzorowanego 10.9.2. Znalezienie optymalnej liczby klastrów 10.10. Cykl życia eksperymentu data science 11. Publikacja modeli eksploracji danych jako usług WWW 11.1. Wzorcowy eksperyment data science 11.2. Predykcyjne usługi WWW 11.2.1. Zapytania predykcyjne ad-hoc 11.2.2. Wsadowe zapytania predykcyjne
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 144353 (1 egz.)
Brak okładki
Książka
W koszyku
Bibliografia, netografia przy rozdziałach.
GŁOS BIZNESU - Grzegorz Oszuścik INFORMACJA W ORGANIZACJI - Cezary Graul, Krzysztof Andruszkiewicz Źródła informacji w organizacji Systemy i modele zarządzania informacją w organizacji Systemy zarządzania informacją System Informacji Marketingowej (SIM) jako przykład systemu zarządzania informacją o rynku Modele zarządzania informacją Zarządzanie cyklem życia informacji Element ryzyka w zarządzaniu informacją TEXT MINING I NARZĘDZIA EKSPLORACJI TEKSTU - Daniel Zwierzchowski Eksploracja danych tekstowych - text mining Analiza danych nieustrukturyzowanych Zakres stosowania text mining Przedstawienie narzędzi text mining WYKORZYSTANIE SMS JAKO TECHNIKI GROMADZENIA DANYCH W BADANIACH MARKETINGOWYCH - Krzysztof Andruszkiewicz, Krzysztof Śmiatacz Kwestia zaufania do badań marketingowych za pośrednictwem SMS Ilościowe i jakościowe badania marketingowe - porównanie Koncepcja integracji podejścia metodycznego ilościowego i jakościowego w badaniach marketingowych Wybrane zagadnienia metodyki badań marketingowych Ankieta telefoniczna - komórkowa (ATK) jako metoda zbierania danych pierwotnych z pośrednim udziałem ankietera REZULTATY DZIAŁAŃ W RAMACH PROJEKTU STAŻU BADAWCZEGO PRZEPROWADZONEGO NA TERENIE CENTRUM ONKOLOGII W BYDGOSZCZY - Krzysztof Śmiatacz Zadania projektu stażu badawczego Rezultaty prac przygotowawczych do gromadzenia danych tekstowych z wiadomości SMS Wybrane rezultaty realizacji zadań dotyczących analizy danych tekstowych z wiadomości SMS ZMIANY W KOMUNIKACJI JĘZYKOWEJ POD WPŁYWEM NOWOCZESNYCH URZĄDZEŃ ELEKTRONICZNYCH (NA PRZYKŁADZIE ANALIZY TEKSTÓW ESEMESOWYCH) - Andrzej S. Dyszak Wybrane zagadnienia wprowadzające do komunikacji językowej Charakterystyka formalnych cech tekstów pisanych w języku polskim Analiza formalno-znaczeniowa esemesów pacjentów Centrum Onkologii w Bydgoszczy Analiza stylistyczna esemesów pacjentów Centrum Onkologii w Bydgoszczy SENIORZY A WYKORZYSTANIE TECHNOLOGII INFORMACYJNYCH (IT) DO WYRAŻANIA OPINII NA TEMAT ŚWIADCZEŃ MEDYCZNYCH - Aleksandra Błachnio, Krzysztof Śmiatacz Ograniczenia systemu opieki socjalnej i zdrowotnej pacjenta geriatrycznego Innowacyjność rozwiązań IT w medycynie Lokalna diagnoza możliwości i ograniczeń innowacyjnych zastosowań IT wśród seniorów Sytuacja życiowa i potrzeby seniorów w województwie kujawsko-pomorskim Badanie gotowości seniorów do użycia telefonii komórkowej do badania jakości świadczeń zdrowotnych
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia
Są egzemplarze dostępne do wypożyczenia: sygn. 144760 (1 egz.)
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności