ODBIERZ TWÓJ BONUS :: »

Przetwarzanie języka naturalnego z wykorzystaniem transformerów. Budowanie aplikacji językowych za pomocą bibliotek Hugging Face Lewis Tunstall, Leandro von Werra, Thomas Wolf

Autorzy:
Lewis Tunstall, Leandro von Werra, Thomas Wolf
Wydawnictwo:
Helion
Wydawnictwo:
Helion
Ocena:
Bądź pierwszym, który oceni tę książkę
Stron:
360
Druk:
oprawa miękka
Dostępne formaty:
     PDF
     ePub
     Mobi
Czytaj fragment
Książka
59,40 zł 99,00 zł (-40%)
59,40 zł najniższa cena z 30 dni

Dodaj do koszyka Wysyłamy w 24h

Ebook
49,50 zł 99,00 zł (-50%)
49,50 zł najniższa cena z 30 dni

Dodaj do koszyka lub Kup na prezent Kup 1-kliknięciem

Przenieś na półkę

Do przechowalni

Do przechowalni

Powiadom o dostępności audiobooka »

Czego się nauczysz?

  • Architektury modeli transformer i mechanizmów atencji w NLP
  • Uczenia transferowego i zastosowań modeli transformerów w różnych zadaniach językowych
  • Korzystania z ekosystemu Hugging Face: Hub, Tokenizers, Datasets, Accelerate
  • Klasyfikacji tekstu z wykorzystaniem wstępnie wytrenowanych modeli
  • Tokenizacji tekstu na poziomie znaków, wyrazów, podwyrazów i całych zbiorów
  • Dostrajania i trenowania modeli transformerów na własnych danych
  • Rozpoznawania nazwanych encji w wielu językach i transferu międzyjęzykowego
  • Tworzenia niestandardowych modeli do klasyfikacji tokenów
  • Generowania tekstu i stosowania różnych metod dekodowania (greedy, beam search, sampling)
  • Streszczania tekstów i ewaluacji jakości generowanych streszczeń
  • Budowania systemów odpowiadających na pytania z wykorzystaniem bibliotek takich jak Haystack
  • Optymalizacji modeli poprzez destylację, kwantyzację i rozrzedzanie wag
  • Pracy z danymi o ograniczonej liczbie etykiet lub bez etykiet
  • Trenowania modeli transformerów od podstaw, w tym budowy własnych tokenizatorów
  • Skalowania modeli transformerowych i wyzwań związanych z dużymi zbiorami danych
  • Zastosowań transformerów poza tekstem: wizja komputerowa, tabele, przetwarzanie mowy

Modele transformacyjne zmieniły sposób przetwarzania języka naturalnego. Rewolucja rozpoczęła się w 2017 roku, kiedy zaprezentowano światu tę architekturę sieci neuronowej. Kolejnym przełomem okazały się repozytoria modeli, takie jak biblioteka Transformers zespołu Hugging Face, która umożliwia łatwe pobranie wstępnie wytrenowanego modelu, jego konfigurację i użytkowanie. Poznaj niesamowite możliwości: wszędzie tam, gdzie jest mowa lub tekst, istnieją zastosowania NLP.

Niezwykle przejrzysty i wnikliwy przewodnik po najważniejszej bibliotece współczesnego NLP. Polecam!

Christopher Manning, profesor Uniwersytetu Stanforda

Tę książkę docenią praktycy: inżynierowie uczenia maszynowego i analitycy danych, poszukujący sposobu praktycznego zaadaptowania modeli transformacyjnych do swoich potrzeb. Autorzy skupili się na praktycznej stronie tworzenia aplikacji językowych, a w poszczególnych rozdziałach ujęto wszystkie najważniejsze zastosowania transformerów w NLP. Zaczniesz od łatwych w użyciu potoków, następnie przystąpisz do pracy z tokenizatorami, klasami modeli i interfejsu Trainer API, pozwalającymi na trenowanie modeli do konkretnych zastosowań. Dowiesz się również, jak zastąpić interfejs Trainer biblioteką Accelerate, która zapewnia pełną kontrolę nad pętlą treningową i umożliwia trenowanie dużych transformerów od zera!

W książce:

  • tworzenie modeli transformacyjnych przeznaczonych do typowych zadań NLP
  • stosowanie transformerów do międzyjęzykowego uczenia transferowego
  • używanie transformerów w rzeczywistych scenariuszach
  • optymalizacja modeli technikami: destylacji, przycinania i kwantyzacji
  • trenowanie modeli transformacyjnych z wykorzystaniem wielu procesorów graficznych w środowisku rozproszonym

Autorzy książki są współtwórcami platformy Hugging Face.

Wybitna książka poświęcona wybitnej bibliotece - wzór przejrzystości!

Jeremy Howard, profesor Uniwersytetu Queensland

Wiosna w głowie, ebook w dłoni! / do -50% na tysiące tytułów

Wybrane bestsellery

O autorach książki

Lewis Tunstall obecnie tworzy narzędzia dla społeczności NLP.

Leandro von Werra zajmuje się głównie modelami generowania kodu i komunikacją ze społecznością.

Thomas Wolf jest głównym dyrektorem naukowym. Zajmuje się możliwie najszerszym upowszechnianiem wyników badań nad sztuczną inteligencją.

Helion - inne książki

Najczęściej zadawane pytania (FAQ)
1. Czy do korzystania z książki potrzebna jest znajomość bibliotek Hugging Face lub wcześniejsze doświadczenie z transformerami?
Nie, książka wprowadza czytelnika krok po kroku w świat transformerów i bibliotek Hugging Face, wyjaśniając zarówno podstawy, jak i bardziej zaawansowane zagadnienia. Znajomość podstaw programowania w Pythonie będzie pomocna.
2. Jakie praktyczne umiejętności zdobędę po przeczytaniu tej książki?
Nauczysz się budować i wdrażać aplikacje językowe oparte na modelach transformacyjnych, optymalizować modele NLP, trenować własne modele od podstaw oraz korzystać z narzędzi i bibliotek ekosystemu Hugging Face.
3. Czy książka zawiera przykłady kodu i praktyczne projekty?
Tak, książka jest bogata w przykłady kodu, instrukcje krok po kroku oraz praktyczne studia przypadków, które pozwalają od razu zastosować zdobytą wiedzę w realnych projektach.
4. Czy książka omawia tematy związane z optymalizacją modeli i ich wdrażaniem w środowisku produkcyjnym?
Tak, w dedykowanych rozdziałach znajdziesz zagadnienia dotyczące destylacji, kwantyzacji, rozrzedzania modeli oraz optymalizacji inferencji, co pozwoli Ci efektywnie wdrażać modele w praktycznych zastosowaniach.
5. Czy książka nadaje się do samodzielnej nauki nowoczesnych technik NLP?
Tak, książka została napisana w sposób przystępny i praktyczny, umożliwiając samodzielną naukę i eksperymentowanie z nowoczesnymi technikami przetwarzania języka naturalnego.
6. Czy znajdę w książce informacje o pracy z danymi wielojęzycznymi i transferze między językami?
Tak, książka szczegółowo omawia tematy związane z wielojęzycznymi modelami, transferem wiedzy między językami oraz praktycznym wykorzystaniem transformerów w różnych językach.
7. Jakie są wymagania sprzętowe do realizacji przykładów z książki?
Do większości przykładów wystarczy standardowy komputer z zainstalowanym Pythonem. Praca z dużymi modelami lub trenowanie od podstaw może wymagać dostępu do wydajniejszej karty graficznej (GPU) lub korzystania z chmury obliczeniowej.

Zamknij

Przenieś na półkę
Dodano produkt na półkę
Usunięto produkt z półki
Przeniesiono produkt do archiwum
Przeniesiono produkt do biblioteki

Zamknij

Wybierz metodę płatności

Książka
59,40 zł
Dodaj do koszyka
Ebook
49,50 zł
Dodaj do koszyka
Płatności obsługuje:
Ikona płatności Alior Bank Ikona płatności Apple Pay Ikona płatności Bank PEKAO S.A. Ikona płatności Bank Pocztowy Ikona płatności Banki Spółdzielcze Ikona płatności BLIK Ikona płatności Crédit Agricole e-przelew Ikona płatności dawny BNP Paribas Bank Ikona płatności Google Pay Ikona płatności ING Bank Śląski Ikona płatności Inteligo Ikona płatności iPKO Ikona płatności mBank Ikona płatności Millennium Ikona płatności Nest Bank Ikona płatności Paypal Ikona płatności PayPo | PayU Płacę później Ikona płatności PayU Płacę później Ikona płatności Plus Bank Ikona płatności Płacę z Citi Handlowy Ikona płatności Płacę z Getin Bank Ikona płatności Płać z BOŚ Ikona płatności Płatność online kartą płatniczą Ikona płatności Santander Ikona płatności Visa Mobile