MENU

Przetwarzanie języka naturalnego w akcji

(Miękka)

Rozumienie, analiza i generowanie tekstu w Pythonie na przykładzie języka angielskiego

4.04  [ 50 ocen ]
 Sprawdź recenzje
Rozwiń szczegóły »
Cena katalogowa: 129,00 zł
Najniższa cena z 30 dni: 96,75 zł
Cena produktu

Cena katalogowa – rynkowa cena produktu, często jest drukowana przez wydawcę na książce.

Najniższa cena z 30 dni – najniższa cena sprzedaży produktu w księgarni z ostatnich 30 dni, obowiązująca przed zmianą ceny.

Wszystkie ceny, łącznie z ceną sprzedaży, zawierają podatek VAT.

109,65
Dodaj do schowka
Dostępność: w magazynie
Średnia liczba
Dostawa i płatność
Termin wysyłki
- Zamów z DPD (kurier lub punkty) do 19:30, a Twoją paczkę wysyłamy jeszcze dziś i dostarczymy jutro!
- Dotyczy dni roboczych (poniedziałek-piątek, z bez dni wolnych od pracy) oraz towarów dostępnych w magazynie.
- Pozostałe zamówienia realizujemy w terminie deklarowanym na stronie produktu.
- Czas oczekiwania na zamówienie = wysyłka + dostawa przez przewoźnika.
Dostawa i płatność
- Paczki dostarczamy wyłącznie na terenie Polski; od 249 zł dostawa GRATIS!
- Dla zamówień o wartości powyżej 500 zł wyłącznie płatność elektroniczna.


Przedpłata (Przelewy24)
do 249 zł
od 249 zł
Dostawa 
- Kurier DPD
12,49 zł
0 zł
1 dzień
- Odbiór w punktach DPD
10,99 zł
0 zł
1 dzień
- InPost Paczkomaty 24/7
13,99 zł
0 zł
1 dzień
- ORLEN Paczka
9,99 zł
0 zł
1-2 dni
- Odbiór w Punktach Poczta, Żabka
10,99 zł
0 zł
2 dni
- Pocztex
11,99 zł
0 zł
2 dni
- Odbiór w księgarni PWN
0 zł
0 zł
2-3 dni

Pobranie
do 249 zł
od 249 zł
Dostawa 
- Kurier DPD
16,49 zł
0 zł
1 dzień
- Odbiór w Punktach Poczta, Żabka
14,99 zł
0 zł
1-2 dni
- Pocztex
15,99 zł
0 zł
2 dni
Zarezerwuj i odbierz w księgarni stacjonarnej PWN

Przetwarzanie języka naturalnego w akcji

Ostatnie postępy w głębokim uczeniu się (deep learning) umożliwiają aplikacjom rozumienie tekstu i mowy z niezwykłą dokładnością. Rezultat? Chatboty, które mogą naśladować prawdziwych ludzi, sensowne dopasowywanie życiorysu do rodzaju pracy, doskonałe wyszukiwanie predykcyjne i automatycznie generowane podsumowania dokumentów – wszystko to przy niskich kosztach. Nowe techniki, wraz z dostępnymi narzędziami, takimi jak Keras i TensorFlow, sprawiają, że profesjonalna jakość przetwarzania języka naturalnego (Natural Language Processing, NLP) jest łatwiejsza do osiągnięcia niż kiedykolwiek wcześniej.

Przetwarzanie języka naturalnego w akcji autorstwa Hobsona Lane’a, Hannesa Maxa Hapke i Cole’a Howarda to przewodnik po tworzeniu maszyn, które potrafią czytać i interpretować ludzki język. Użyjecie w nim łatwo dostępnych pakietów Pythona, aby wychwycić znaczenie tekstu i odpowiednio zareagować. Książka poszerza tradycyjne podejścia do NLP o sieci neuronowe, nowoczesne algorytmy głębokiego uczenia się i techniki generatywne w miarę rozwiązywania rzeczywistych problemów, takich jak wyodrębnianie dat i nazwisk, komponowanie tekstu i odpowiadanie na pytania w swobodnej formie.

Niektóre zdania tej książki zostały napisane przez NLP! Czy potraficie odgadnąć które?

W książce :

  • Praca z Keras, TensorFlow, gensim i scikit-learn
  • NLP oparte na regułach i danych
  • Skalowalne potoki

Polskie wydanie zostało wzbogacone o dodatkowy rozdział, który omawia przetwarzanie języka naturalnego na podstawie języka polskiego, autorstwa dr Łukasza Kobylińskiego i Ryszarda Tuory.

Korzystanie z książki wymaga podstawowego zrozumienia głębokiego uczenia się i znajomości Pythona na poziomie średnim.

„Poznajcie zarówno teorię, jak i umiejętności praktyczne potrzebne do wyjścia poza samo zrozumienie wewnętrznego funkcjonowania NLP i zacznijcie tworzyć własne algorytmy lub modele”.
dr Arwen Griffioen, Zendesk

„Książka dostarcza świetny przegląd aktualnych narzędzi NLP w Pythonie. Będę trzymał tę książkę pod ręką przy mojej własnej pracy w NLP. Gorąco polecam!”
Tony Mullen, Northeastern University–Seattle

„Intuicyjny przewodnik, jak rozpocząć korzystanie z NLP. Książka jest pełna przykładów programowania, które pomagają uczyć się w bardzo pragmatyczny sposób”.
Tommaso Teofili, Adobe Systems

  • Sposób dostarczenia produktu fizycznego
    Sposoby i terminy dostawy:
    • Odbiór osobisty w księgarni PWN - dostawa 2-3 dni robocze
    • Odbiór w InPost Paczkomaty 24/7 - dostawa 1 dzień roboczy
    • Kurier pocztowy (dostawa do domu lub pracy) - dostawa 2 dni robocze
    • Odbiór w Punktach Poczta, Żabka - dostawa 2 dni robocze
    • Punkty partnerskie ORLEN Paczka - dostawa 1-2 dni
    • Kurier (DPD) - dostawa 1 dzień roboczy
    Ważne informacje:
    Czas oczekiwania na zamówiony towar = czas wysyłki produktu + dostawa przez przewoźnika
    • Całkowity czas oczekiwania na realizację zamówienia jest sumą czasu wysyłki podanej na stronie każdego produktu oraz czasu potrzebnego przewoźnikowi na dostarczenie paczki. Podane terminy dotyczą zawsze dni roboczych (od poniedziałku do piątku, z wyłączeniem dni wolnych od pracy).
    • Wysyłkę zamówień prowadzimy jedynie na terenie Polski.
    • Dostawa do Księgarni PWN, punktów ORLEN Paczka, stacji Orlen, sklepów Żabka oraz Paczkomatów InPost nie jest realizowana dla zamówień z płatnością przy odbiorze.
    • Cena towaru na fakturze VAT jest podwyższona o ewentualny koszt transportu.
    • W przypadku zamówienia kilku towarów koszt przesyłki wybranej przez Klienta zostanie podzielony i przyporządkowany proporcjonalnie do cen kupionych produktów.
    • Produkty dostępne w PRZEDSPRZEDAŻY wysyłane są po dacie premiery wydawniczej.
wprowadzenie xvii
wstęp xiv
podziękowania xxvi
o książce xxiv
o autorach xxxii
o ilustracji na okładce xxxiv

CZĘŚĆ 1 ■ MÓWIĄCE MASZYNY 1
1. Pakiety myśli (przegląd NLP) 3
1.1. Język naturalny a język programowania 4
1.2. Magia 4
1.2.1. Maszyny prowadzące konwersację 5
1.2.2. Matematyka 6
1.3. Zastosowania praktyczne 8
1.4. Język widziany „oczyma” komputera 10
1.4.1. Język zamków 10
1.4.2. Wyrażenia regularne 11
1.4.3. Prosty chatbot 13
1.4.4. Inny sposób 16
1.5. Krótkie spojrzenie na hiperprzestrzeń 20
1.6. Kolejność słów i gramatyka 22
1.7. Potokjęzyka naturalnego chatbota 23
1.8. Szczegóły przetwarzania 26
1.9. IQjęzyka naturalnego 28
2. Zbuduj swój słownik (tokenizacja słów) 32
2.1. Wyzwania (wprowadzenie do stemmingu) 34
2.2. Tworzenie swojego słownika za pomocą tokenizatora 35
2.2.1. Iloczyn skalarny 44
2.2.2. Pomiar nakładania się wektorów BoW 44
2.2.3. Poprawianie tokenów 45
Jak działają wyrażenia regularne 46" Poprawione wyrażenia regularne do podziału słów 47
■ Formy skrócone 50
2.2.4. Rozszerzenie słownika za pomocą n-gramów 50
N-gramy 51 ■ Stop listy 54
2.2.5. Normalizacja słownika 57
Ujednolicanie wielkości liter 57 ■ Stemming 59 ■ Lematyzacja 62
■ Przypadki użycia 64
2.3. Wydźwięk 65
2.3.1. VADER - analizator wydźwięku oparty na regułach 67
2.3.2. Naiwny klasyfikator bayesowski 68
3. Matematyka na słowach (wektory TD-IDF) 73
3.1. Wektor BoW 74
3.2. Wektoryzacja 79
3.2.1. Przestrzenie wektorowe 82
3.3. Prawo Zipfa 87
3.4. Modelowanie tematyczne 89
3.4.1. Powrót Zipfa 92
3.4.2. Ranking trafności 94
3.4.3. Narzędzia 96
3.4.4. Inne możliwości 97
3.4.5. Okapi BM25 98
3.4.6. Co dalej 99
4. Odnajdowanie znaczenia w licznikach słów (analiza semantyczna) 101
4.1. Od liczników słów do wyników dla tematów 103
4.1.1. Wektory TF-IDF i lematyzacja 103
4.1.2. Wektory tematyczne 104
4.1.3. Eksperyment myślowy 105
4.1.4. Algorytm do oceny tematów 110
„Kuzyni” LSA 111
4.1.5. Klasyfikator LDA 111
Inny „kuzyn” 115
4.2. Analiza utajonych własności semantycznych (LSA) 116
4.2.1. Wasz eksperyment myślowy staje się prawdziwy 118
Gra w Mad libs 119
4.3. Rozkład według wartości osobliwej 121
4.3.1. U - lewostronne wektory osobliwe 123
4.3.2. S - wartości osobliwe 124
4.3.3. VT - prawostronne wektory osobliwe 125
4.3.4. Orientacja macierzy SVD 126
4.3.5. Obcinanie tematów 127
4.4. Analiza głównych składowych 128
4.4.1. PCA dla wektorów 3D 130
4.4.2. Przestańmy szaleć i wróćmy do NLP 131
4.4.3. Stosowanie PCA do semantycznej analizy komunikatów SMS 134
4.4.4. Używanie obciętego SVD do analizy semantycznej komunikatu SMS 136
4.4.5. Jak dobrze działa LSA przy klasyfikacji spamu 137
Rozszerzenia LSA i SVD 139
4.5. Ukryta alokacja Dirichleta (LDiA) 140
4.5.1. Idea LDiA 141
4.5.2. Model tematyczny LDiA dla komunikatów SMS 143
4.5.3. LDiA + LDA = klasyfikator spamu 146
4.5.4. Uczciwsze porównanie: 32 tematy LDiA 148
4.6. Odległość i podobieństwo 149
4.7. Sterowanie za pomocą informacji zwrotnej 152
4.7.1. Liniowa analiza dyskryminacyjna 153
4.8. Moc wektorów tematycznych 155
4.8.1. Wyszukiwanie semantyczne 156
4.8.2. Ulepszenia 159

CZĘŚĆ 2 ■ GŁĘBSZE UCZENIE SIĘ (SIECI NEURONOWE) 161
5. Sieci neuronowe krok po kroku (perceptrony i propagacja wsteczna) 163
5.1. Sieci neuronowe - lista składników 164
5.1.1. Perceptron 165
5.1.2. Perceptron numeryczny 165
5.1.3. Zboczenie z drogi spowodowane odchyleniem 166
Neuron w Pythonie 168" Klasa tkwi w sesji 169" Uczenie się logiki to czysta frajda 170" Następny krok 172" Koniec drugiej zimy sztucznej inteligencji 175 " Propagacja wsteczna 176 " Zróżniczkujmy wszystko 179
5.1.4. Poszusujmy - powierzchnia błędu 181
5.1.5. Z wyciągu prosto na stok 182
5.1.6. Udoskonalmy to nieco 182
5.1.7. Keras: sieci neuronowe w Pythonie 184
5.1.8. Wprzód i w głąb 187
5.1.9. Normalizacja: stylowe wejście 188
6. Wnioskowanie przy użyciu wektorów słów (Word2vec) 190
6.1. Zapytania semantyczne i analogie 191
6.1.1. Pytania o analogię 192
6.2. Wektory słów 193
6.2.1. Wnioskowanie zorientowane wektorowo 197
Jeszcze więcej powodów, by korzystać z wektorów słów 199
6.2.2. Jak obliczać reprezentacje Word2vec 200
Podejście skip-gram 201" Czym jest softmax? 202" Wjaki sposób sieć uczy się reprezentacji wektorowej? 203 " Odnajdywanie wektorów słów za pomocą algebry liniowej 205 " Podejście CBoW 205 " Skip-gram a CBoW. Kiedy korzystać z którego podejścia? 207 " Triki obliczeniowe Word2vec 207 " Częste bigramy 207 " Podpróbkowanie często występujących tokenów 208 " Próbkowanie negatywne 209 6.2.3. Jak korzystać z modułu gensim.word2vec 209 6.2.4. Jak wygenerować własne reprezentacje wektorów słów 212 Kroki przetwarzania wstępnego 212" Szkolenie dziedzinowego modelu Word2vec 213
6.2.5. Word2vec a GloVe (Global Vectors) 214
6.2.6. fastText 215
Jak korzystać z gotowych modeli fastText 216
6.2.7. Word2vec a LSA 216
6.2.8. Wizualizacja związków między słowami 217
6.2.9. Nienaturalne słowa 224
6.2.10. Doc2vec i podobieństwo dokumentów 225
Jak wyuczyć wektory dokumentów 226
7. Kolejność słów i konwolucyjne sieci neuronowe (CNN) 228
7.1. Uczenie się znaczenia 230
7.2. Zestaw narzędzi 232
7.3. Konwolucyjne sieci neuronowe 233
7.3.1. Elementy składowe 233
7.3.2. Długość kroku 235
7.3.3. Budowa filtra 235
7.3.4. Uzupełnianie 237
Potok konwolucyjny 238
7.3.5. Uczenie 238
7.4. Zaiste, wąskie okna 239
7.4.1. Implementacja w Kerasie: przygotowanie danych 240
7.4.2. Architektura konwolucyjnej sieci neuronowej. 247
7.4.3. Warstwa łącząca (pooling) 247
7.4.4. Dropout 250
7.4.5. Wisienka na torcie 251
Optymalizacja 252 ■ Dopasowanie (fit) 252
7.4.6. Czas zabrać się za naukę (trening) 253
7.4.7. Użycie modelu w potoku 255
7.4.8. Gdzie pójdziecie dalej? 256
8. Zapętlone (rekurencyjne) sieci neuronowe (RNN) 259
8.1. Zapamiętywanie za pomocą sieci rekurencyjnych 262
8.1.1. Propagacja wsteczna przez czas 267
Tl;Dr - Krótka rekapitulacja 269
8.1.2. Kiedy i co aktualizować? 269
Czyjednak obchodzi was to, co wyszło z wcześniejszych kroków? 270
8.1.3. Rekapitulacja 271
8.1.4. Zawsze jestjakiś haczyk 272
8.1.5. Rekurencyjne sieci neuronowe z Kerasem 272
8.2. Składanie w całość 277
8.3. Nauczmy się czegoś o przeszłości 279
8.4. Hiperparametry 279
8.5. Przewidywanie 283
8.5.1. Stanowość 284
8.5.2. Ulica dwukierunkowa 284
8.5.3. Co to takiego? 286
9. Lepsza pamięć dzięki sieciom LSTM 288
9.1. LSTM 290
9.1.1. Propagacja wsteczna przez czas 299
W praktyce 299
9.1.2. Próba ognia 301
9.1.3. Brudne dane 303
9.1.4. Powrót do brudnych danych 306
9.1.5. Słowa są trudne. Litery są prostsze 307
9.1.6. Kolej na rozmowę 312
9.1.7. Zwrot ku klarownej mowie 314
Zwiększanie użyteczności generatora 322
9.1.8. Jak mówić i co mówić 322
9.1.9. Inne rodzaje pamięci 322
9.1.10. Idąc głębiej 323
10. Modele ciąg-ciąg i uwaga (attention) 326
10.1. Architektura koder-dekoder 327
10.1.1. Dekodowanie myśli 328
10.1.2. Wygląda znajomo? 330
10.1.3. Konwersacja ciąg-ciąg 332
10.1.4. Powtórzenie LSTM 332
10.2. Składanie potoku ciąg-ciąg 334
10.2.1. Przygotowanie naszego zbioru danych do szkolenia ciąg-ciąg 334
10.2.2. Model ciąg-ciąg w Kerasie 335
10.2.3. Koder ciągów 336
10.2.4. Koder myśli 337
10.2.5. Składanie sieci ciąg-ciąg 338
10.3. Szkolenie sieci ciąg-ciąg 339
10.3.1. Generowanie ciągów wyjściowych 340
10.4. Budowanie chatbota przy użyciu sieci ciąg-ciąg 341
10.4.1. Przygotowanie korpusu do szkolenia 342
10.4.2. Budowanie słownika znaków 343
10.4.3. Generowanie zbiorów treningowych zakodowanych metodą 1 z n 343
10.4.4. Uczenie chatbota ciąg-ciąg 344
10.4.5. Składanie modelu do generowania ciągów 345
10.4.6. Przewidywanie ciągu 345
10.4.7. Generowanie odpowiedzi 346
10.4.8. Rozmowa z waszym chatbotem 347
10.5. Ulepszenia 347
10.5.1. Redukcja złożoności treningu za pomocą sortowania danych (bucketing) 347
10.5.2. Uwaga (attentiori) 348
10.6. W świecie rzeczywistym 350

CZĘŚĆ 3 ■ PRZEJŚCIE DO RZECZYWISTOŚCI (PRAWDZIWE PROBLEMY NLP) 353
11. Ekstrakcja informacji (rozpoznawanie jednostek nazewniczych i odpowiadanie na pytania) 355
11.1. Jednostki nazewnicze i relacje 356
11.1.1. Baza wiedzy 356
11.1.2. Ekstrakcja informacji 359
11.2. Regularne wzorce 359
11.2.1. Wyrażenia regularne 360
11.2.2. Ekstrakcja informacji jako ekstrakcja cech z wykorzystaniem uczenia się maszyn 361
11.3. Informacje warte wyodrębnienia 363
11.3.1. Ekstrakcja lokalizacji GPS 363
11.3.2. Ekstrakcja dat 364
11.4. Wyodrębnianie relacji 369
11.4.1. Znakowanie częściami mowy 370
11.4.2. Normalizacja jednostek nazewniczych 374
11.4.3. Normalizacja i wyodrębnianie relacji 375
11.4.4. Wzorce słów 375
11.4.5. Segmentacja 376
Segmentacja na zdania 377
11.4.6. Dlaczego split('.!?') nie będzie działać? 377
11.4.7. Segmentacja na zdania za pomocą wyrażeń regularnych 378
11.5. W prawdziwym świecie 380
12. Pogaduszki (silniki dialogowe) 382
12.1. Umiejętnościjęzykowe 383
12.1.1. Nowoczesne podejścia 384
Systemy dialogowe odpowiadające na pytania 386 ■ Wirtualni asystenci 386 Chatboty konwersacyjne 387 ■ Chatboty marketingowe 388 ■ Zarządzanie społecznością 388 ■ Obsługa klienta 389 ■ Terapia 390
12.1.2. Podejście hybrydowe 390
12.2. Podejście polegające na dopasowaniu do wzorców 391
12.2.1. Chatbot oparty na dopasowaniu do wzorca i AIML 392
AIML 1.0 393 ■ Interpreter AIML w Pythonie 394
12.2.2. Sieciowe spojrzenie na dopasowanie do wzorców 399
12.3. Oparcie na wiedzy 400
12.4. Wyszukiwanie 402
12.4.1. Problem kontekstu 403
12.4.2. Przykładowy chatbot oparty na wyszukiwaniu danych 404
12.4.3. Chatbot oparty na wyszukiwaniu 408
12.5. Modele generatywne 410
12.5.1. Czat na temat NLPIA 411
12.5.2. Zalety i wady każdego podejścia 413
12.6. Napęd na cztery koła 414
12.6.1. Will osiąga sukces 414
Instalowanie Willa 414 ■ Hello WILL 414
12.7. Proces projektowania 415
12.8. Sztuczki 418
12.8.1. Zadawanie pytań z przewidywalnymi odpowiedziami 418
12.8.2. Bycie zabawnym 419
12.8.3. Gdy wszystko inne zawiedzie, trzeba wyszukać 419
12.8.4. Bycie popularnym 419
12.8.5. Być łącznikiem 420
12.8.6. Stawanie się emocjonalnym 420
12.9. W świecie rzeczywistym 420
13. Skalowanie (optymalizacja, zrównoleglanie i przetwarzanie wsadowe) 422
13.1. Zbyt wiele dobrego (danych) 423
13.2. Optymalizowanie algorytmów NLP 423
13.2.1. Indeksowanie 424
13.2.2. Zaawansowane indeksowanie 425
13.2.3. Zaawansowane indeksowanie za pomocą Annoy 427
13.2.4. Po co w ogóle stosować indeksy przybliżone? 432
13.2.5. Obejście indeksowania: dyskretyzacja 433
13.3. Algorytmy ze stałą pamięcią RAM 434
13.3.1. Gensim 434
13.3.2. Obliczenia graficzne 435
13.4. Zrównoleglanie waszych obliczeń NLP 436
13.4.1. Trenowanie modeli NLP na procesorach graficznych (GPU) 436
13.4.2. Wynajem a kupno 438
13.4.3. Opcje wynajmu GPU 438
13.4.4. Jednostki przetwarzania tensorowego 439
13.5. Zmniejszanie zużycia pamięci podczas trenowania modeli 440
13.6. Uzyskiwanie wglądu w model za pomocą TensorBoard 442
13.6.1. Jak wizualizować zanurzenia słów 443
dodatek A Nasze narzędzia NLP 447
dodatek B Swawolny Python i wyrażenia regularne 455
dodatek C Wektory i macierze (podstawy algebry liniowej) 461
dodatek D Narzędzia i techniki uczenia się maszyn 467
dodatek E Ustawianie własnego AWS GPU 481
dodatek F Mieszanie wrażliwe na lokalizację (LSH) 495

źródła 503
słownik 513
indeks 520
posłowie do wydania polskiego 535
NAZWA I FORMAT
OPIS
ROZMIAR
Przetwarzanie jezyka naturalnego str 535-536-min.pdf(pdf)
66 KB
Przetwarzanie jezyka naturalnego str 73-76-min.pdf(pdf)
96 KB
Przetwarzanie jezyka naturalnego o ksiazce-min.pdf(pdf)
42 KB
Przetwarzanie jezyka naturalnego str 299-301-min.pdf(pdf)
60 KB

Przeczytaj fragment

NAZWA I FORMAT
OPIS
ROZMIAR
Przetwarzanie jezyka naturalnego str 535-536-min.pdf(pdf)
66 KB
Przetwarzanie jezyka naturalnego str 73-76-min.pdf(pdf)
96 KB
Przetwarzanie jezyka naturalnego o ksiazce-min.pdf(pdf)
42 KB
Przetwarzanie jezyka naturalnego str 299-301-min.pdf(pdf)
60 KB

Kup w komplecie

Seria w Akcji PAKIET: Mikroserwisy w akcji + Elixir w akcji + React Native w akcji + Mikroserwisy + Przetwarzanie języka naturalnego w akcji + Kubernetes w akcji
Mikroserwisy w akcji
Mikroserwisy w akcji
Książka (Miękka)
Elixir w akcji
Elixir w akcji
Książka (Miękka)
React Native w akcji
React Native w akcji
Książka (Miękka)
Mikroserwisy
Mikroserwisy
Książka (Miękka)

513,00

Oszczędzasz 171,00 zł

Inni Klienci oglądali również

61,62 zł
79,00 zł

Gramatyka języka niemieckiego z ćwiczeniami

Gramatyka języka niemieckiego z ćwiczeniami zawiera:szczegółowe omówienie wszystkich zagadnień gramatycznych, opracowane konfrontatywnie i zilustrowane licznymi przykładami;85 jednostek tematycznych; obejmujących ćwicz...
42,59 zł
57,40 zł

English in a Car Repair Workshop Podręcznik do języka angielskiego zawodowego

Książka Blanki Myszkowskiej pt. „English in a Car Repair Workshop” jest pierwszym wydanym w Polsce ukierunkowanym zawodowo podręcznikiem języka angielskiego używanego w branży samochodowej. Zawiera teksty, ilustracje z objaśnieniami oraz d...
40,42 zł
47,00 zł

und so weiter EXTRA 2 Podręcznik do języka niemieckiego dla klasy 5

Podręcznik przygotowany przez doświadczony zespół autorski – Marta Kozubska, Ewa Krawczyk, Lucyna Zastąpiło. Autorki tak doskonałych pozycji podręcznikowych dla szkoły podstawowej – od lat beststellerów PWN Wydawnictwa Szkolnego – jak „der, die, das...
24,66 zł
34,90 zł

Gramatyka języka szwedzkiego

Gramatyka języka szwedzkiego to przegląd współczesnych zagadnień gramatycznych przedstawionych w przystępny sposób. Każdy rozdział poświęcony jest oddzielnej kategorii gramatycznej. W opisie zagadnienia oprócz wyjaśnienia zawarte s...
93,50 zł
126,00 zł

Wprowadzenie do cyfrowego przetwarzania sygnałów

Podręcznik, stanowiący kompleksowy wykład z zakresu cyfrowego przetwarzania sygnałów. Zawarto w nim podstawy teorii sygnałów i systemów dyskretnych, próbkowanie równomierne, dyskretne przekształcenie Fouriera, szybką ...
27,12 zł
39,99 zł

Psi Patrol Liczby i kolory w akcji

Edukacyjna seria produktów 'Uczę się, poznaję, potrafię' z uwielbianymi przez dzieci bohaterami Psiego Patrolu. W kartonowym pudełku z rączką poza książką znajdziemy elementy edukacyjne wspierające rozwój przedszkolaka w najważniejszych obszarach. W pu...
45,40 zł
49,90 zł

Naturalny rytm dobowy

Dr Kshirsagar:Opowiedz mi swój dzień, a powiem ci, czy jesteś zdrowy”. Złe nawyki, takie jak opuszczanie posiłków, nieregularne ćwiczenia fizyczne upychane tam, gdzie znajdzie się wolna chwila, praca do późna w nocy i daremne...
35,00 zł

Programy nauczania języka polskiego jako obcego poziomy A1-C2

Programy nauczania języka polskiego jako obcego. Poziomy A1-C2(- WYDANIE DRUGIE POPRAWIONE)redakcja i autorzy: Iwona Janowska, Ewa Lipińska, Agnieszka Rabiej, Anna Seretny, Przemysław TurekW 2004 roku wprowadzony zos...
106,00 zł

Obiettivo Grammatica 2 B1-B2 Podręcznik do gramatyki języka włoskiego

Obiettivo Grammatica to zupełnie nowa gramatyka dla studentów języka włoskiego jako obcego, składająca się z dwóch tomów (A1-A2 i B1-B2) z ćwiczeniami, lekturami i testami pozwalającymi poznać każdy aspekt i zastosowanie języka wło...

Recenzje (1):

Pisemne recenzje mogą być dodawane wyłącznie przez klientów zarejestrowanych w sklepie. Na liczbę gwiazdek wyświetlanych przy produkcie składają się również oceny produktów, dodanie których nie wymaga posiadania konta.

Publikujemy wszystkie recenzje produktów, zarówno pozytywne, jak i negatywne. Jeśli wiemy, że produkt został zakupiony przez recenzenta, oznaczamy to ikonką

Najnowsze | Najbardziej pomocne

Książka jest bardzo źle przetłumaczona, wydaje się że tłumaczenie zrobił automat i to nie tej klasy co google translate. Niemal w każdym akapicie są zdania które można cytować jako drewnianych translacji, angielska składnia i nawyki językowe są przeniesione słowo w słowo. Ciężko się to czyta.

Ocena: