- Wydawnictwo:
- Helion
- Wydawnictwo:
- Helion
- Ocena:
- 3.5/6 Opinie: 4
- Stron:
- 544
- Druk:
- oprawa miękka
- Dostępne formaty:
-
PDFePubMobi
Opis ebooka: Uczenie maszynowe w Pythonie dla każdego
Sztuczna inteligencja i uczenie maszynowe rozwijają się z niezwykłą dynamiką i znajdują coraz więcej różnorodnych zastosowań w niemal wszystkich branżach. Ten spektakularny postęp jest silnie związany z osiągnięciami w świecie sprzętu i oprogramowania. Obecnie do uczenia maszynowego używa się wielu języków programowania, takich jak R, C, C++, Fortran i Go, jednak najpopularniejszym wyborem okazał się Python wraz z jego specjalistycznymi bibliotekami. Znajomość tych bibliotek i narzędzi umożliwia tworzenie systemów uczących się nawet tym osobom, które nie dysponują głęboką wiedzą z dziedziny matematyki.
Ta książka jest przeznaczona dla każdego, kto choć trochę zna Pythona i chce nauczyć się uczenia maszynowego. Zagadnienia matematyczne zostały tu zaprezentowane w minimalnym stopniu, za to więcej uwagi poświęcono koncepcjom, na których oparto najważniejsze i najczęściej używane narzędzia oraz techniki uczenia maszynowego. Następnie pokazano praktyczne zasady implementacji uczenia maszynowego z wykorzystaniem najdoskonalszych bibliotek i narzędzi Pythona. Opisano używane dziś komponenty systemów uczących się, w tym techniki klasyfikacji i regresji, a także inżynierię cech, która pozwala przekształcać dane na użyteczną postać. Przeanalizowano liczne algorytmy i najczęściej stosowane techniki uczenia maszynowego. Pokrótce przedstawiono modele grafowe i sieci neuronowe, w tym sieci głębokie, jak również połączenie tych technik z bardziej zaawansowanymi metodami, przydatnymi choćby w pracy na danych graficznych i tekstowych.
W książce między innymi:
- algorytmy i modele uczenia maszynowego
- zasady oceny skuteczności systemów uczących
- techniki przekształcania danych
- techniki uczenia maszynowego do obrazu i tekstu
- sieci neuronowe i modele grafowe
- biblioteka scikit-learn i inne narzędzia Pythona
Uczenie maszynowe z Pythonem: od dziś dla każdego!
Kompletny podręcznik poznawania i budowania systemów uczenia maszynowego w Pythonie dla początkujących
Uczenie maszynowe z użyciem Pythona dla każdego pomoże Ci opanować procesy, wzorce i strategie potrzebne do budowania skutecznych systemów uczących się - i to nawet jeśli nie masz żadnego doświadczenia w tej dziedzinie. Jeśli potrafisz pisać kod w Pythonie, ta książka jest przeznaczona dla Ciebie. Nie ma znaczenia, jak niewielka jest Twoja wiedza z zakresu matematyki na poziomie uniwersyteckim. Autor, Mark E. Fenner, omawia zagadnienia z obszaru uczenia maszynowego z wykorzystaniem historyjek, rysunków i przykładów w Pythonie.
Mark rozpoczyna od omówienia uczenia maszynowego i tego, co pozwala ono zrobić. Następnie w przystępny sposób przedstawia najważniejsze zagadnienia matematyczne i informatyczne oraz pomaga stawiać czytelnikom pierwsze kroki w budowaniu, uczeniu i ocenianiu systemów uczących się. Krok po kroku prezentuje komponenty praktycznych systemów uczących się, wzbogaca zestaw narzędzi i analizuje wybrane spośród najbardziej zaawansowanych i ekscytujących technik z dziedziny uczenia maszynowego. Niezależnie od tego, czy jesteś studentem, analitykiem, naukowcem lub hobbystą, wiedzę z tego poradnika będziesz mógł zastosować w każdym systemie uczącym się, jaki kiedykolwiek zbudujesz lub zastosujesz.
Dr Mark E. Fenner od 1999 roku uczy informatyki i matematyki różne grupy dorosłych. Pracował nad różnymi aspektami data science - od niskopoziomowych implementacji po analizy i wizualizację. Mark prowadził szkolenia i rozwijał programy nauczania dla firm z listy Fortune 50, małych firm konsultingowych i ogólnokrajowych laboratoriów badawczych. Jest doktorem informatyki i właścicielem firmy Fenner Training and Consulting, LLC.
- Poznaj algorytmy i modele uczenia maszynowego oraz podstawowe zagadnienia z tej dziedziny.
- Buduj systemy uczące się dla danych kategorialnych i liczbowych.
- Realistycznie oceniaj skuteczność systemów z dziedziny uczenia maszynowego.
- Stosuj inżynierię cech do przekształcania niedoskonałych danych na użyteczną postać.
- Łącz różne komponenty w jeden system i pracuj nad jego skutecznością.
- Stosuj techniki uczenia maszynowego do obrazu i tekstu.
- Połącz podstawowe zagadnienia z sieciami neuronowymi i modelami grafowymi.
- Korzystaj z biblioteki scikit-learn Pythona i innych wartościowych narzędzi.
Wybrane bestsellery
-
Dzięki tej książce dowiesz się, jak pozyskiwać, analizować i wizualizować dane, a potem używać ich do rozwiązywania problemów biznesowych. Wystarczy, że znasz podstawy Pythona i matematyki na poziomie liceum, aby zacząć stosować naukę o danych w codziennej pracy. Znajdziesz tu szereg praktycznych...
Data science i Python. Stawianie czoła najtrudniejszym wyzwaniom biznesowym Data science i Python. Stawianie czoła najtrudniejszym wyzwaniom biznesowym
(44.85 zł najniższa cena z 30 dni)41.40 zł
69.00 zł(-40%) -
Ta książka wyjaśni Ci rolę matematyki w tworzeniu, renderowaniu i zmienianiu wirtualnych środowisk 3D, a ponadto pozwoli odkryć tajemnice najpopularniejszych dzisiaj silników gier. Za sprawą licznych praktycznych ćwiczeń zorientujesz się, co się kryje za rysowaniem linii i kształtów graficznych, ...
Matematyka w programowaniu gier i grafice komputerowej. Tworzenie i renderowanie wirtualnych środowisk 3D oraz praca z nimi Matematyka w programowaniu gier i grafice komputerowej. Tworzenie i renderowanie wirtualnych środowisk 3D oraz praca z nimi
(57.84 zł najniższa cena z 30 dni)53.40 zł
89.00 zł(-40%) -
To czwarte, zaktualizowane wydanie znakomitego przewodnika poświęconego zastosowaniu uczenia maszynowego do rozwiązywania rzeczywistych problemów w analizie danych. Dzięki książce dowiesz się wszystkiego, co trzeba wiedzieć o wstępnym przetwarzaniu danych, znajdowaniu kluczowych spostrzeżeń, prog...
Uczenie maszynowe w języku R. Tworzenie i doskonalenie modeli - od przygotowania danych po dostrajanie, ewaluację i pracę z big data. Wydanie IV Uczenie maszynowe w języku R. Tworzenie i doskonalenie modeli - od przygotowania danych po dostrajanie, ewaluację i pracę z big data. Wydanie IV
(83.40 zł najniższa cena z 30 dni)83.40 zł
139.00 zł(-40%) -
Dzięki tej książce łatwo przyswoisz teoretyczne podstawy i zaczniesz je płynnie wdrażać w rzeczywistych scenariuszach. Dowiesz się, w jaki sposób myślenie przyczynowe ułatwia rozwiązywanie problemów, i poznasz pojęcia Pearla, takie jak strukturalny model przyczynowy, interwencje, kontrfakty itp. ...
Wnioskowanie i związki przyczynowe w Pythonie. Nowoczesne uczenie maszynowe z wykorzystaniem bibliotek DoWhy, EconML, PyTorch i nie tylko Wnioskowanie i związki przyczynowe w Pythonie. Nowoczesne uczenie maszynowe z wykorzystaniem bibliotek DoWhy, EconML, PyTorch i nie tylko
(65.40 zł najniższa cena z 30 dni)65.40 zł
109.00 zł(-40%) -
Pytest – nowoczesny framework do uruchamiania testów automatycznych w języku Python. Można używać tej platformy do przeprowadzania testów jednostkowych, ale sprawdzi się świetnie także podczas konstruowania rozbudowanych testów wyższego poziomu (integracyjnych, end-to-end) dla całych aplika...
Pytest. Kurs video. Automatyzacja testów w Pythonie Pytest. Kurs video. Automatyzacja testów w Pythonie
(67.05 zł najniższa cena z 30 dni)81.95 zł
149.00 zł(-45%) -
Oto zaktualizowane wydanie popularnego przewodnika, dzięki któremu skorzystasz z ponad dwustu sprawdzonych receptur bazujących na najnowszych wydaniach bibliotek Pythona. Wystarczy, że skopiujesz i dostosujesz kod do swoich potrzeb. Możesz też go uruchamiać i testować za pomocą przykładowego zbio...
Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II
(53.40 zł najniższa cena z 30 dni)53.40 zł
89.00 zł(-40%) -
Sposobów na naukę Pythona jest sporo i powstało na ten temat mnóstwo publikacji. Jeżeli ten wybór jest właśnie przed Tobą, rozważ naukę Pythona poprzez tworzenie prostych gier. Ich programowanie to nie tylko świetna zabawa, ale też doskonała metoda rozwijania umiejętności algorytmicznych, kreatyw...
Python od podstaw. Kurs video. Tworzenie pierwszych gier w PyCharm Python od podstaw. Kurs video. Tworzenie pierwszych gier w PyCharm
(51.60 zł najniższa cena z 30 dni)70.95 zł
129.00 zł(-45%) -
Agile i Scrum, Scrum i Agile. Opanowawszy branżę IT, powoli, ale konsekwentnie, zdobywają inne biznesowe przyczółki i rozgaszczają się w firmach na dobre… Albo niedobre, gdy budzą niezrozumienie, protesty, a czasem nawet chęć ucieczki! Agile i Scrum brzmią tak nowocześnie, w teorii świetnie...(23.94 zł najniższa cena z 30 dni)
23.94 zł
39.90 zł(-40%) -
To trzecie, zaktualizowane i uzupełnione wydanie bestsellerowego podręcznika programowania w Pythonie. Naukę rozpoczniesz od podstawowych koncepcji programowania. Poznasz takie pojęcia jak zmienne, listy, klasy i pętle, a następnie utrwalisz je dzięki praktycznym ćwiczeniom. Dowiesz się, jak zape...(71.40 zł najniższa cena z 30 dni)
71.40 zł
119.00 zł(-40%) -
Nie są ani roślinami, ani zwierzętami, ale występują dosłownie wszędzie, także w powietrzu i w naszych ciałach. Mogą być mikroskopijne, ale należą również do największych poznanych organizmów. Dzięki nim na lądzie powstało życie. Mogą przetrwać bez dodatkowej ochrony w kosmosie i rozwijać się w o...
Strzępki życia. O tym, jak grzyby tworzą nasz świat, zmieniają nasz umysł i kształtują naszą przyszłość Strzępki życia. O tym, jak grzyby tworzą nasz świat, zmieniają nasz umysł i kształtują naszą przyszłość
O autorze ebooka
Dr Mark Fenner - uczy dorosłych informatyki i matematyki. Prowadził badania w dziedzinach uczenia maszynowego, bioinformatyki i bezpieczeństwa systemów komputerowych. Zajmował się też analizą bezpieczeństwa repozytoriów oprogramowania, probabilistycznym modelowaniem białek oraz analizą i wizualizacją danych pochodzących z badań ekologicznych i mikroskopowych. Mieszka z rodziną w południowo-wschodniej Pensylwanii.
Ebooka "Uczenie maszynowe w Pythonie dla każdego" przeczytasz na:
-
czytnikach Inkbook, Kindle, Pocketbook, Onyx Boox i innych
-
systemach Windows, MacOS i innych
-
systemach Windows, Android, iOS, HarmonyOS
-
na dowolnych urządzeniach i aplikacjach obsługujących formaty: PDF, EPub, Mobi
Masz pytania? Zajrzyj do zakładki Pomoc »
Audiobooka "Uczenie maszynowe w Pythonie dla każdego" posłuchasz:
-
w aplikacji Ebookpoint na Android, iOS, HarmonyOs
-
na systemach Windows, MacOS i innych
-
na dowolnych urządzeniach i aplikacjach obsługujących format MP3 (pliki spakowane w ZIP)
Masz pytania? Zajrzyj do zakładki Pomoc »
Kurs Video "Uczenie maszynowe w Pythonie dla każdego" zobaczysz:
-
w aplikacjach Ebookpoint i Videopoint na Android, iOS, HarmonyOs
-
na systemach Windows, MacOS i innych z dostępem do najnowszej wersji Twojej przeglądarki internetowej
Szczegóły ebooka
- Tytuł oryginału:
- Machine Learning with Python for Everyone (Addison-Wesley Data & Analytics Series)
- Tłumaczenie:
- Tomasz Walczak, Jakub Hubisz
- ISBN Książki drukowanej:
- 978-83-283-6425-7, 9788328364257
- Data wydania książki drukowanej:
- 2020-09-18
- ISBN Ebooka:
- 978-83-283-6426-4, 9788328364264
- Data wydania ebooka:
- 2020-09-18 Data wydania ebooka często jest dniem wprowadzenia tytułu do sprzedaży i może nie być równoznaczna z datą wydania książki papierowej. Dodatkowe informacje możesz znaleźć w darmowym fragmencie. Jeśli masz wątpliwości skontaktuj się z nami sklep@ebookpoint.pl.
- Format:
- 168x237
- Numer z katalogu:
- 110563
- Rozmiar pliku Pdf:
- 6.7MB
- Rozmiar pliku ePub:
- 10.3MB
- Rozmiar pliku Mobi:
- 23.3MB
- Pobierz przykładowy rozdział PDF
- Przykłady na ftp
Ebook zawiera materiały dodatkowe, które możesz pobrać z serwera FTP - link znajdziesz na stronie redakcyjnej.
Spis treści ebooka
- 1.1. Witaj 27
- 1.2. Zakres, terminologia, predykcja i dane 28
- 1.2.1. Cechy 28
- 1.2.2. Wartości docelowe i predykcje 31
- 1.3. Rola maszyny w uczeniu maszynowym 31
- 1.4. Przykład systemów uczących się 33
- 1.4.1. Predykcja kategorii: przykłady klasyfikacji 33
- 1.4.2. Predykcja wartości - przykłady regresorów 35
- 1.5. Ocena systemów uczących się 35
- 1.5.1. Poprawność 36
- 1.5.2. Wykorzystanie zasobów 37
- 1.6. Proces budowania systemów uczących się 38
- 1.7. Założenia i realia uczenia się 40
- 1.8. Zakończenie rozdziału 42
- 1.8.1. Droga przed nami 42
- 1.8.2. Uwagi 43
- 2.1. O naszej konfiguracji 45
- 2.2. Potrzeba posiadania języka matematycznego 45
- 2.3. Nasze oprogramowanie do zmierzenia się z uczeniem maszynowym 46
- 2.4. Prawdopodobieństwo 47
- 2.4.1. Zdarzenia elementarne 48
- 2.4.2. Niezależność zdarzeń 50
- 2.4.3. Prawdopodobieństwo warunkowe 50
- 2.4.4. Rozkłady 52
- 2.5. Kombinacje liniowe, sumy ważone i iloczyny skalarne 54
- 2.5.1. Średnia ważona 57
- 2.5.2. Suma kwadratów 59
- 2.5.3. Suma kwadratów błędów 59
- 2.6. Perspektywa geometryczna: punkty w przestrzeni 60
- 2.6.1. Linie 61
- 2.6.2. Coś więcej niż linie 65
- 2.7. Notacja sztuczki plus jeden 69
- 2.8. Odjazd, zrywanie kaftana bezpieczeństwa i nieliniowość 71
- 2.9. NumPy kontra "cała matematyka" 73
- 2.9.1. Wracamy do 1D i 2D 75
- 2.10. Problemy z wartościami zmiennoprzecinkowymi 78
- 2.11. Zakończenie rozdziału 79
- 2.11.1. Podsumowanie 79
- 2.11.2. Uwagi 79
- 3.1. Zadania klasyfikacji 81
- 3.2. Prosty zestaw danych do klasyfikacji 82
- 3.3. Trenowanie i testowanie: nie ucz się do testu 84
- 3.4. Ocena - wystawienie stopni 87
- 3.5. Prosty klasyfikator nr 1: najbliżsi sąsiedzi, związki na odległość i założenia 88
- 3.5.1. Definiowanie podobieństwa 88
- 3.5.2. k w k-NN 90
- 3.5.3. Kombinacja odpowiedzi 90
- 3.5.4. k-NN, parametry i metody bezparametrowe 90
- 3.5.5. Budowa modelu klasyfikacji k-NN 91
- 3.6. Prosty klasyfikator nr 2: naiwny klasyfikator bayesowski, prawdopodobieństwo i złamane obietnice 93
- 3.7. Uproszczona ocena klasyfikatorów 96
- 3.7.1. Wydajność uczenia się 96
- 3.7.2. Wykorzystanie zasobów w klasyfikacji 97
- 3.7.3. Szacowanie zasobów w aplikacjach samodzielnych 103
- 3.8. Koniec rozdziału 106
- 3.8.1. Ostrzeżenie: ograniczenia i otwarte kwestie 106
- 3.8.2. Podsumowanie 107
- 3.8.3. Uwagi 107
- 3.8.4. Ćwiczenia 109
- 4.1. Prosty zbiór danych dla regresji 111
- 4.2. Regresja z najbliższymi sąsiadami i statystyki sumaryczne 113
- 4.2.1. Miary środka: mediana i średnia 114
- 4.2.2. Budowa modelu regresji k-NN 116
- 4.3. Błędy regresji liniowej 117
- 4.3.1. Ziemia nie jest płaska, czyli dlaczego potrzebujemy pochyłości 118
- 4.3.2. Przekrzywienie pola 120
- 4.3.3. Wykonanie regresji liniowej 122
- 4.4. Optymalizacja - wybór najlepszej odpowiedzi 123
- 4.4.1. Zgadywanie losowe 124
- 4.4.2. Losowe kroki 124
- 4.4.3. Sprytne kroki 125
- 4.4.4. Obliczony skrót 125
- 4.4.5. Wykorzystanie w regresji liniowej 126
- 4.5. Prosta ocena i porównanie regresorów 126
- 4.5.1. Pierwiastek średniego błędu kwadratowego 126
- 4.5.2. Wydajność uczenia się 127
- 4.5.3. Wykorzystanie zasobów w regresji 127
- 4.6. Zakończenie rozdziału 129
- 4.6.1. Ograniczenia i kwestie otwarte 129
- 4.6.2. Podsumowanie 130
- 4.6.3. Uwagi 130
- 4.6.4. Ćwiczenia 130
- 5.1. Ocena i dlaczego mniej znaczy więcej 133
- 5.2. Terminologia dla faz uczenia się 134
- 5.2.1. Powrót do maszyn 135
- 5.2.2. Mówiąc bardziej technicznie... 137
- 5.3. Majorze Tom, coś jest nie tak - nadmierne dopasowanie i niedopasowanie 141
- 5.3.1. Dane syntetyczne i regresja liniowa 141
- 5.3.2. Ręczna modyfikacja złożoności modelu 143
- 5.3.3. Złotowłosa - wizualizacja nadmiernego dopasowania, niedopasowania oraz "w sam raz" 145
- 5.3.4. Prostota 148
- 5.3.5. Uwagi na temat nadmiernego dopasowania 148
- 5.4. Od błędów do kosztów 149
- 5.4.1. Strata 149
- 5.4.2. Koszt 150
- 5.4.3. Punktacja 151
- 5.5. (Powtórne) próbkowanie - zamienić mniej w więcej 152
- 5.5.1. Walidacja krzyżowa 152
- 5.5.2. Rozwarstwienie 156
- 5.5.3. Powtarzany podział na dane treningowe i testowe 158
- 5.5.4. Lepszy sposób i tasowanie 161
- 5.5.5. Walidacja krzyżowa z odłożeniem jednego 164
- 5.6. Rozbicie: dekonstrukcja błędu na błąd systematyczny i wariancję 166
- 5.6.1. Wariancja danych 167
- 5.6.2. Wariancja modelu 167
- 5.6.3. Błąd systematyczny modelu 168
- 5.6.4. A teraz wszystko razem 168
- 5.6.5. Przykłady kompromisów związanych z błędem systematycznym i wariancją 169
- 5.7. Ocena graficzna i porównanie 173
- 5.7.1. Krzywe uczenia - jak dużo danych potrzebujemy? 173
- 5.7.2. Krzywe złożoności 177
- 5.8. Porównywanie metod uczących się za pomocą walidacji krzyżowej 178
- 5.9. Koniec rozdziału 179
- 5.9.1. Podsumowanie 179
- 5.9.2. Uwagi 179
- 5.9.3. Ćwiczenia 181
- 6.1. Klasyfikatory bazowe 183
- 6.2. Więcej niż dokładność - wskaźniki dla klasyfikacji 186
- 6.2.1. Eliminacja zamieszania za pomocą macierzy błędu 187
- 6.2.2. W jaki sposób można się mylić 188
- 6.2.3. Wskaźniki z macierzy błędu 189
- 6.2.4. Kodowanie macierzy błędu 190
- 6.2.5. Radzenie sobie z wieloma klasami - uśrednianie wieloklasowe 192
- 6.2.6. F1 194
- 6.3. Krzywe ROC 194
- 6.3.1. Wzorce w ROC 197
- 6.3.2. Binarny ROC 199
- 6.3.3. AUC - obszar pod krzywą ROC 201
- 6.3.4. Wieloklasowe mechanizmy uczące się, jeden kontra reszta i ROC 203
- 6.4. Inne podejście dla wielu klas: jeden-kontra-jeden 205
- 6.4.1. Wieloklasowe AUC, część druga - w poszukiwaniu pojedynczej wartości 206
- 6.5. Krzywe precyzji i skuteczności wyszukiwania 209
- 6.5.1. Uwaga o kompromisie precyzji i skuteczności wyszukiwania 209
- 6.5.2. Budowanie krzywej precyzji i skuteczności wyszukiwania 210
- 6.6. Krzywe kumulacyjnej odpowiedzi i wzniesienia 211
- 6.7. Bardziej wyrafinowana ocena klasyfikatorów - podejście drugie 213
- 6.7.1. Binarne 213
- 6.7.2. Nowy problem wieloklasowy 217
- 6.8. Koniec rozdziału 222
- 6.8.1. Podsumowanie 222
- 6.8.2. Uwagi 222
- 6.8.3. Ćwiczenia 224
- 7.1. Metody regresji będące punktem odniesienia 225
- 7.2. Dodatkowe miary w metodach regresji 227
- 7.2.1. Tworzenie własnych miar oceny 227
- 7.2.2. Inne wbudowane miary regresji 228
- 7.2.3. R2 229
- 7.3. Wykresy składników resztowych 235
- 7.3.1. Wykresy błędów 235
- 7.3.2. Wykresy składników resztowych 237
- 7.4. Pierwsze podejście do standaryzacji 241
- 7.5. Ocena mechanizmów regresji w bardziej zaawansowany sposób: podejście drugie 245
- 7.5.1. Wyniki po sprawdzianie krzyżowym z użyciem różnych miar 246
- 7.5.2. Omówienie wyników ze sprawdzianu krzyżowego 249
- 7.5.3. Składniki resztowe 250
- 7.6. Koniec rozdziału 251
- 7.6.1. Podsumowanie 251
- 7.6.2. Uwagi 251
- 7.6.3. Ćwiczenia 254
- 8.1. Jeszcze o klasyfikacji 257
- 8.2. Drzewa decyzyjne 259
- 8.2.1. Algorytmy budowania drzewa 262
- 8.2.2. Do pracy. Pora na drzewa decyzyjne 265
- 8.2.3. Obciążenie i wariancja w drzewach decyzyjnych 268
- 8.3. Klasyfikatory oparte na wektorach nośnych 269
- 8.3.1. Stosowanie klasyfikatorów SVC 272
- 8.3.2. Obciążenie i wariancja w klasyfikatorach SVC 275
- 8.4. Regresja logistyczna 277
- 8.4.1. Szanse w zakładach 278
- 8.4.2. Prawdopodobieństwo, szanse i logarytm szans 280
- 8.4.3. Po prostu to zrób: regresja logistyczna 285
- 8.4.4. Regresja logistyczna: osobliwość przestrzenna 286
- 8.5. Analiza dyskryminacyjna 287
- 8.5.1. Kowariancja 289
- 8.5.2. Metody 299
- 8.5.3. Przeprowadzanie analizy dyskryminacyjnej 301
- 8.6. Założenia, obciążenie i klasyfikatory 302
- 8.7. Porównanie klasyfikatorów: podejście trzecie 304
- 8.7.1. Cyfry 305
- 8.8. Koniec rozdziału 307
- 8.8.1. Podsumowanie 307
- 8.8.2. Uwagi 307
- 8.8.3. Ćwiczenia 310
- 9.1. Regresja liniowa na ławce kar - regularyzacja 313
- 9.1.1. Przeprowadzanie regresji z regularyzacją 318
- 9.2. Regresja z użyciem wektorów nośnych 319
- 9.2.1. Zawiasowa funkcja straty 319
- 9.2.2. Od regresji liniowej przez regresję z regularyzacją do regresji SVR 323
- 9.2.3. Po prostu to zrób - w stylu SVR 324
- 9.3. Regresja segmentowa ze stałymi 325
- 9.3.1. Implementowanie regresji segmentowej ze stałymi 327
- 9.3.2. Ogólne uwagi na temat implementowania modeli 328
- 9.4. Drzewa regresyjne 331
- 9.4.1. Przeprowadzanie regresji z użyciem drzew 331
- 9.5. Porównanie metod regresji: podejście trzecie 332
- 9.6. Koniec rozdziału 334
- 9.6.1. Podsumowanie 334
- 9.6.2. Uwagi 334
- 9.6.3. Ćwiczenia 335
- 10.1. Terminologia i przyczyny stosowania inżynierii cech 337
- 10.1.1. Po co stosować inżynierię cech? 338
- 10.1.2. Kiedy stosuje się inżynierię cech? 339
- 10.1.3. Jak przebiega inżynieria cech? 340
- 10.2. Wybieranie cech i redukcja danych - pozbywanie się śmieci 341
- 10.3. Skalowanie cech 342
- 10.4. Dyskretyzacja 346
- 10.5. Kodowanie kategorii 348
- 10.5.1. Inna metoda kodowania i niezwykły przypadek braku punktu przecięcia z osią 351
- 10.6. Relacje i interakcje 358
- 10.6.1. Ręczne tworzenie cech 358
- 10.6.2. Interakcje 360
- 10.6.3. Dodawanie cech na podstawie transformacji 364
- 10.7. Manipulowanie wartościami docelowymi 366
- 10.7.1. Manipulowanie przestrzenią danych wejściowych 367
- 10.7.2. Manipulowanie wartościami docelowymi 369
- 10.8. Koniec rozdziału 371
- 10.8.1. Podsumowanie 371
- 10.8.2. Uwagi 371
- 10.8.3. Ćwiczenia 372
- 11.1. Modele, parametry i hiperparametry 376
- 11.2. Dostrajanie hiperparametrów 378
- 11.2.1. Uwaga na temat słownictwa informatycznego i z dziedziny uczenia maszynowego 378
- 11.2.2. Przykład przeszukiwania kompletnego 378
- 11.2.3. Używanie losowości do szukania igły w stogu siana 384
- 11.3. Wyprawa w rekurencyjną króliczą norę - zagnieżdżony sprawdzian krzyżowy 385
- 11.3.1. Opakowanie w sprawdzian krzyżowy 386
- 11.3.2. Przeszukiwanie siatki jako model 387
- 11.3.3. Sprawdzian krzyżowy zagnieżdżony w sprawdzianie krzyżowym 388
- 11.3.4. Uwagi na temat zagnieżdżonych SK 391
- 11.4. Potoki 393
- 11.4.1. Prosty potok 393
- 11.4.2. Bardziej skomplikowany potok 394
- 11.5. Potoki i dostrajanie całego procesu 395
- 11.6. Koniec rozdziału 397
- 11.6.1. Podsumowanie 397
- 11.6.2. Uwagi 397
- 11.6.3. Ćwiczenia 398
- 12.1. Zespoły 401
- 12.2. Zespoły głosujące 404
- 12.3. Bagging i lasy losowe 404
- 12.3.1. Technika bootstrap 404
- 12.3.2. Od techniki bootstrap do metody bagging 408
- 12.3.3. Przez losowy las 410
- 12.4. Boosting 412
- 12.4.1. Szczegółowe omówienie boostingu 413
- 12.5. Porównywanie metod opartych na zespołach drzew 415
- 12.6. Koniec rozdziału 418
- 12.6.1. Podsumowanie 418
- 12.6.2. Uwagi 419
- 12.6.3. Ćwiczenia 420
- 13.1. Wybieranie cech 425
- 13.1.1. Filtrowanie jednoetapowe z wybieraniem cech na podstawie miar 426
- 13.1.2. Wybieranie cech na podstawie modelu 437
- 13.1.3. Integrowanie wybierania cech z potokiem procesu uczenia 440
- 13.2. Tworzenie cech za pomocą jąder 441
- 13.2.1. Powód używania jąder 441
- 13.2.2. Ręczne metody wykorzystujące jądra 446
- 13.2.3. Metody wykorzystujące jądro i opcje jądra 450
- 13.2.4. Klasyfikatory SVC dostosowane do jądra - maszyny SVM 454
- 13.2.5. Uwagi do zapamiętania na temat maszyn SVM i przykładów 456
- 13.3. Analiza głównych składowych - technika nienadzorowana 457
- 13.3.1. Rozgrzewka - centrowanie 458
- 13.3.2. Znajdowanie innej najlepszej linii 459
- 13.3.3. Pierwsza analiza głównych składowych 461
- 13.3.4. Analiza głównych składowych od kuchni 463
- 13.3.5. Wielki finał - uwagi na temat analizy głównych składowych 469
- 13.3.6. Analiza głównych składowych dla jądra i metody oparte na rozmaitościach 470
- 13.4. Koniec rozdziału 473
- 13.4.1. Podsumowanie 473
- 13.4.2. Uwagi 474
- 13.4.3. Ćwiczenia 478
- 14.1. Praca z tekstem 482
- 14.1.1. Kodowanie tekstu 484
- 14.1.2. Przykład maszynowego klasyfikowania tekstu 488
- 14.2. Klastrowanie 490
- 14.2.1. Klastrowanie metodą k-średnich 491
- 14.3. Praca z obrazami 492
- 14.3.1. Worek słów graficznych 492
- 14.3.2. Dane graficzne 493
- 14.3.3. Kompletny system 494
- 14.3.4. Kompletny kod transformacji obrazów na postać WGSG 501
- 14.4. Koniec rozdziału 503
- 14.4.1. Podsumowanie 503
- 14.4.2. Uwagi 503
- 14.4.3. Ćwiczenia 505
- 15.1. Optymalizacja 507
- 15.2. Regresja liniowa z prostych składników 510
- 15.2.1. Graficzne ujęcie regresji liniowej 513
- 15.3. Regresja logistyczna z prostych składników 514
- 15.3.1. Regresja logistyczna i kodowanie zerojedynkowe 515
- 15.3.2. Regresja logistyczna z kodowaniem plus jeden - minus jeden 517
- 15.3.3. Graficzne ujęcie regresji logistycznej 518
- 15.4. Maszyna SVM z prostych składników 518
- 15.5. Sieci neuronowe 520
- 15.5.1. Regresja liniowa za pomocą sieci neuronowych 521
- 15.5.2. Regresja logistyczna za pomocą sieci neuronowych 523
- 15.5.3. Poza podstawowe sieci neuronowe 524
- 15.6. Probabilistyczne modele grafowe 525
- 15.6.1. Próbkowanie 527
- 15.6.2. Regresja liniowa za pomocą modelu PGM 528
- 15.6.3. Regresja logistyczna za pomocą modelu PGM 531
- 15.7. Koniec rozdziału 534
- 15.7.1. Podsumowanie 534
- 15.7.2. Uwagi 534
- 15.7.3. Ćwiczenia 535
Przedmowa 15
Wprowadzenie 17
O autorze 23
CZĘŚĆ I. PIERWSZE KROKI 25
Rozdział 1. Podyskutujmy o uczeniu się 27
Rozdział 2. Kontekst techniczny 45
Rozdział 3. Predykcja kategorii - początki klasyfikacji 81
Rozdział 4. Predykcja wartości numerycznych: początki regresji 111
CZĘŚĆ II. OCENA 131
Rozdział 5. Ocena i porównywanie metod uczenia się 133
Rozdział 6. Ocena klasyfikatorów 183
Rozdział 7. Ocena metod regresji 225
CZĘŚĆ III. JESZCZE O METODACH I PODSTAWACH 255
Rozdział 8. Inne metody klasyfikacji 257
Rozdział 9. Inne metody regresji 313
Rozdział 10. Ręczna inżynieria cech - manipulowanie danymi dla zabawy i dla zysku 337
Rozdział 11. Dopracowywanie hiperparametrów i potoki 375
CZĘŚĆ IV. ZWIĘKSZANIE ZŁOŻONOŚCI 399
Rozdział 12. Łączenie mechanizmów uczących się 401
Rozdział 13. Modele z automatyczną inżynierią cech 423
Rozdział 14. Inżynieria cech dla dziedzin - uczenie specyficzne dla dziedziny 481
Rozdział 15. Powiązania, rozwinięcia i kierunki dalszego rozwoju 507
Dodatek A. Kod z pliku mlwpy.py 537
Oceny i opinie klientów: Uczenie maszynowe w Pythonie dla każdego Mark Fenner (4) Weryfikacja opinii następuję na podstawie historii zamówień na koncie Użytkownika umieszczającego opinię. Użytkownik mógł otrzymać punkty za opublikowanie opinii uprawniające do uzyskania rabatu w ramach Programu Punktowego.
(1)
(0)
(1)
(1)
(0)
(1)
więcej opinii