ODBIERZ TWÓJ BONUS :: »

Inżynieria dużych modeli językowych. Podręcznik projektowania, trenowania i wdrażania LLM Paul Iusztin, Maxime Labonne, Julien Chaumond (Foreword), Hamza Tahir (Foreword)

Autorzy:
Paul Iusztin, Maxime Labonne, Julien Chaumond (Foreword), Hamza Tahir (Foreword)
Wydawnictwo:
Helion
Wydawnictwo:
Helion
Ocena:
5.0/6  Opinie: 1
Stron:
440
Druk:
oprawa miękka
Dostępne formaty:
     PDF
     ePub
     Mobi
Czytaj fragment
Książka
71,40 zł 119,00 zł (-40%)
71,40 zł najniższa cena z 30 dni

Dodaj do koszyka Wysyłamy w 24h

Ebook
59,50 zł 119,00 zł (-50%)
59,50 zł najniższa cena z 30 dni

Dodaj do koszyka lub Kup na prezent Kup 1-kliknięciem

Przenieś na półkę

Do przechowalni

Do przechowalni

Powiadom o dostępności audiobooka »

Czego się nauczysz?

  • Projektowania architektury systemów opartych na dużych modelach językowych (LLM)
  • Tworzenia potoków uczenia maszynowego z wykorzystaniem cech, trenowania i wnioskowania
  • Wykorzystywania narzędzi MLOps i LLMOps do zarządzania cyklem życia modeli
  • Konfigurowania środowiska projektowego z użyciem ekosystemu Pythona i narzędzi takich jak Poetry, ZenML, Comet i Hugging Face
  • Przechowywania i zarządzania danymi niestrukturyzowanymi oraz wektorowymi w bazach MongoDB i Qdrant
  • Implementowania potoków pobierania i przetwarzania danych do trenowania LLM
  • Budowania i wdrażania potoków opartych na technice Retrieval-Augmented Generation (RAG)
  • Tworzenia i przygotowywania wysokiej jakości zbiorów danych instrukcji do nadzorowanego dostrajania modeli
  • Stosowania technik Parameter-Efficient Fine-Tuning (PEFT) i trenowania parametrów modeli
  • Uwzględniania preferencji użytkowników poprzez uczenie przez wzmocnienie i bezpośrednią optymalizację preferencji
  • Oceniania jakości dużych modeli językowych oraz systemów RAG z wykorzystaniem narzędzi takich jak Ragas i ARES
  • Optymalizowania wnioskowania modeli poprzez strategie takie jak bufor KV, dekodowanie spekulatywne, kwantyzacja i równoległość
  • Implementowania zaawansowanych technik optymalizacji potoku RAG na etapach przed, w trakcie i po pobieraniu danych
  • Wdrażania potoków wnioskowania w różnych architekturach (monolitycznych i mikrousług) oraz na platformie AWS SageMaker
  • Automatycznego skalowania usług LLM w celu obsługi zmiennych obciążeń i zapewnienia wysokiej dostępności
  • Budowania i monitorowania potoków CI/CD oraz workflow DevOps/MLOps/LLMOps dla projektów opartych na LLM

Wraz ze wzrostem popularności dużych modeli językowych rośnie zapotrzebowanie na specjalistów, którzy potrafią je skutecznie wdrażać w rzeczywistych rozwiązaniach. Inżynieria LLM to szeroki zestaw zadań, wymagający unikalnego połączenia wiedzy z wielu dziedzin. Szczególnie istotne okazuje się tu podejście MLOps, które znacząco zwiększa szanse na sukces w projektach opartych na modelach językowych.

Ten obszerny przewodnik pokaże Ci, jak stosować najlepsze praktyki w pracy z LLM. Znajdziesz tu omówienie kluczowych koncepcji, praktyczne techniki i porady ekspertów z zakresu inżynierii danych, dostrajania i oceny modeli, optymalizacji wnioskowania, a także budowania skalowalnych potoków przetwarzania. Krok po kroku prześledzisz, jak zrealizować konkretny produkt, integrując różne aspekty inżynierii LLM i metodologię MLOps. Dowiesz się, jak zbierać i przygotowywać dane, dostrajać modele do specyficznych zastosowań, zwiększać ich wydajność i wdrażać rozwiązania oparte na technice RAG.

Najciekawsze zagadnienia:

  • niezawodne potoki danych i zarządzanie cyklem trenowania modeli LLM
  • tworzenie i udoskonalanie modeli językowych w praktyce
  • podejście MLOps - koordynacja komponentów i monitorowanie promptów
  • nadzorowane dostrajanie i ewaluacja modeli
  • wykorzystanie narzędzi chmurowych (na przykład AWS) w skalowalnych wdrożeniach
  • praktyczne zastosowanie techniki retrieval-augmented generation (RAG)

Działa? To za mało. Musi działać dobrze!

Wiosna w głowie, ebook w dłoni! / do -50% na tysiące tytułów

Wybrane bestsellery

O autorach książki

Paul Iusztin pełni funkcję starszego inżyniera uczenia maszynowego w firmie Metaphysic. Jest założycielem kanału edukacyjnego Decoding ML, poświęconego tworzeniu systemów uczenia maszynowego.

Dr Maxime Labonne kieruje zespołem Post-Training w Liquid AI. Jest uznanym ekspertem Google w dziedzinie sztucznej inteligencji. Organizuje kursy dotyczące dużych modeli językowych i pracuje nad modelami takimi jak NeuralDaredevil.

Helion - inne książki

Najczęściej zadawane pytania (FAQ)
1. Czy książka zawiera praktyczne przykłady wdrażania dużych modeli językowych?
Tak, książka prezentuje konkretne przykłady projektowania, trenowania i wdrażania dużych modeli językowych (LLM) w rzeczywistych zastosowaniach, w tym szczegółowe omówienia pracy z techniką RAG, narzędziami chmurowymi oraz implementacją potoków MLOps.
2. Jakie narzędzia i technologie są omawiane w książce?
Autorzy opisują m.in. ekosystem Pythona, narzędzia takie jak Hugging Face, ZenML, Comet, Poe the Poet, bazy danych MongoDB i Qdrant, a także wykorzystanie usług chmurowych, głównie AWS SageMaker.
3. Czy książka nadaje się do samodzielnej nauki inżynierii LLM?
Tak, podręcznik prowadzi czytelnika krok po kroku przez cały proces -- od przygotowania danych, przez trenowanie i dostrajanie modeli, po wdrożenie i optymalizację rozwiązań, dzięki czemu umożliwia samodzielną naukę.
4. Czy znajdę w książce informacje na temat optymalizacji i skalowania modeli językowych?
Tak, w książce szczegółowo omówiono strategie optymalizacji wnioskowania, techniki kwantyzacji, równoległość modeli oraz metody automatycznego skalowania wdrożonych usług LLM.
5. Czy książka zawiera wskazówki dotyczące wdrażania modeli w chmurze?
Tak, autorzy opisują praktyczne aspekty wdrażania modeli językowych w środowiskach chmurowych, ze szczególnym uwzględnieniem AWS i automatyzacji procesów MLOps/LLMOps.
6. W jaki sposób książka pomaga w ocenie jakości dużych modeli językowych?
Książka zawiera rozdziały poświęcone ocenie modeli LLM, zarówno ogólnego przeznaczenia, jak i specjalistycznych, oraz opisuje narzędzia i metody służące do ewaluacji, takie jak Ragas czy ARES.
7. Czy książka obejmuje tematykę dostrajania modeli do specyficznych zastosowań?
Tak, znajdziesz tu szczegółowe opisy tworzenia i przygotowania własnych zbiorów danych instrukcji oraz technik nadzorowanego i preferencyjnego dostrajania modeli.
8. W jakim formacie dostępna jest książka na Helion.pl?
Książka dostępna jest w wersji drukowanej oraz w formatach elektronicznych (e-book: PDF, ePub, mobi), co umożliwia wygodne czytanie na różnych urządzeniach.

Zamknij

Przenieś na półkę
Dodano produkt na półkę
Usunięto produkt z półki
Przeniesiono produkt do archiwum
Przeniesiono produkt do biblioteki

Zamknij

Wybierz metodę płatności

Książka
71,40 zł
Dodaj do koszyka
Ebook
59,50 zł
Dodaj do koszyka
Płatności obsługuje:
Ikona płatności Alior Bank Ikona płatności Apple Pay Ikona płatności Bank PEKAO S.A. Ikona płatności Bank Pocztowy Ikona płatności Banki Spółdzielcze Ikona płatności BLIK Ikona płatności Crédit Agricole e-przelew Ikona płatności dawny BNP Paribas Bank Ikona płatności Google Pay Ikona płatności ING Bank Śląski Ikona płatności Inteligo Ikona płatności iPKO Ikona płatności mBank Ikona płatności Millennium Ikona płatności Nest Bank Ikona płatności Paypal Ikona płatności PayPo | PayU Płacę później Ikona płatności PayU Płacę później Ikona płatności Plus Bank Ikona płatności Płacę z Citi Handlowy Ikona płatności Płacę z Getin Bank Ikona płatności Płać z BOŚ Ikona płatności Płatność online kartą płatniczą Ikona płatności Santander Ikona płatności Visa Mobile