158891
Książka
W koszyku
Architektura i koncepcja projektu LLM Twin Dlaczego w omawianym celu nie można użyć ChatGPT (lub podobnego chatbota)? Planowanie produktu o minimalnej niezbędnej funkcjonalności dla projektu LLM Twin Czym jest produkt o minimalnej niezbędnej funkcjonalności? Zdefiniowanie produktu o minimalnej niezbędnej funkcjonalności w projekcie LLM Twin Budowanie systemu uczenia maszynowego z wykorzystaniem potoków cech, trenowania i wnioskowania Aspekty, jakie należy uwzględnić podczas budowania systemów uczenia maszynowego Problem z poprzednimi rozwiązaniami Rozwiązanie — potoki uczenia maszynowego dla systemów uczenia maszynowego Zalety architektury FTI Opracowanie architektury systemu dla projektu LLM Twin Szczegóły techniczne dotyczące infrastruktury projektu LLM Twin Jak opracować architekturę LLM Twin za pomocą projektu opartego na potoku FTI? Kilka uwag końcowych na temat projektu FTI i architektury LLM Twin Narzędzia i ich instalacja Ekosystem Pythona i przygotowanie projektu Poetry — menedżer zależności i środowisk wirtualnych Poe the Poet — narzędzie do wykonywania zadań Narzędzia MLOps i LLMOps Hugging Face — rejestr modelu ZenML — oprogramowanie koordynujące, artefakty i metadane Comet — oprogramowanie do śledzenia eksperymentu Opik — monitorowanie promptu Bazy danych do przechowywania danych niestrukturyzowanych i wektorowych MongoDB — baza danych typu NoSQL Qdrant — wektorowa baza danych Przygotowanie do użycia chmury AWS Utworzenie konta AWS i klucza dostępu oraz przygotowanie narzędzia powłoki do pracy z usługą AWS SageMaker — obliczenia związane z trenowaniem i wnioskowaniem Dlaczego SageMaker? Inżynieria danych Opracowanie potoku pobierania danych do projektu LLM Twin Implementacja potoku pobierania danych do projektu LLM Twin Potok ZenML i kroki Dyspozytor — jak zainicjalizować odpowiedni crawler? Crawlery Dokumenty hurtowni danych typu NoSQL Umieszczanie nieprzetworzonych danych bezpośrednio w hurtowni danych Potok wykorzystujący technikę RAG Wyjaśnienie techniki RAG Zwykły framework systemu RAG Czym są osadzenia? Więcej informacji na temat wektorowych baz danych Ogólne omówienie zaawansowanej techniki RAG Prezentacja architektury techniki RAG wykorzystanej w projekcie LLM Twin Magazyn danych cech Skąd pochodzą nieprzetworzone dane? Opracowanie architektury potoku cech techniki RAG Implementacja potoku techniki RAG w projekcie LLM Twin Klasa Settings Potok ZenML i kroki Encje dziedziny Pydantic Warstwa dyspozytora Procedury obsługi Nadzorowane dostrajanie modelu Tworzenie wysokiej jakości zbioru danych instrukcji Ogólny framework rozwiązania Gromadzenie danych Filtrowanie oparte na regułach Eliminacja duplikatów Dekontaminacja danych Ocena jakości danych Eksploracja danych Generowanie danych Uzupełnienie danych Tworzenie własnego zbioru danych instrukcji Nadzorowane dostrajanie modelu i związanych z nim technik Kiedy należy dostrajać model? Formaty zbiorów danych instrukcji Szablony czatu Techniki Parameter-Efficient Fine-Tuning (PEFT) Trenowanie parametrów Dostrajanie w praktyce Dostrajanie modelu z uwzględnieniem preferencji użytkowników Poznanie zbiorów danych preferencji Dane preferencji Generowanie danych i ich ocena Samodzielne tworzenie zbioru danych preferencji Uwzględnienie preferencji Uczenie przez wzmocnienie na podstawie opinii użytkowników Bezpośrednia optymalizacja preferencji Implementacja bezpośredniej optymalizacji preferencji Ocena dużych modeli językowych Ocena modelu Porównanie oceny uczenia maszynowego i oceny dużego modelu językowego Ocena dużego modelu językowego ogólnego przeznaczenia Ocena dużego modelu językowego związanego z dziedziną z zadaniem Ocena systemu RAG Ragas ARES Ocena modelu TwinLlama-3.1-8B Optymalizacja wnioskowania Strategie optymalizacji modelu Bufor KV Przetwarzanie ciągłymi partiami Dekodowanie spekulatywne Zoptymalizowane mechanizmy uwagi Równoległość modelu danych potoku tensora Łączenie różnych technik Kwantyzacja modelu Wprowadzenie do kwantyzacji Kwantyzacja za pomocą GGUF i llama.cpp Kwantyzacja za pomocą GPTQ i EXL2 Potok wnioskowania wykorzystujący technikę RAG Potok wnioskowania RAG w modelu Twin Zaawansowane techniki RAG w modelu Twin Zaawansowane techniki optymalizacji etapu przed pobieraniem danych w systemie RAG — rozbudowa zapytania i samozapytanie Zaawansowane techniki optymalizacji etapu pobierania danych w systemie RAG — filtrowane wyszukiwanie wektorowe Zaawansowane techniki optymalizacji etapu po pobieraniu danych w systemie RAG — ponowne przygotowanie rankingu Implementacja potoku wnioskowania RAG w modelu Twin Implementacja modułu pobierania danych Połączenie wszystkiego w całość w potoku wnioskowania w systemie RAG
Sygnatura czytelni BWEAiI: XII Ą 63
Pliki multimedialne:
Status dostępności:
Biblioteka WEAiI
Egzemplarze są dostępne wyłącznie na miejscu w bibliotece: sygn. 157416 N (1 egz.)
Strefa uwag:
Tytuł oryginału: LLM engineer's handbook : master the art of engineering large language models from concept to production, 2024
Uwaga ogólna
Na okładce także nazwa wydawcy oryginału: Packt.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej

Deklaracja dostępności