muszaki_informatika:neuralis_halok_alapjai
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
muszaki_informatika:neuralis_halok_alapjai [2024/12/05 11:21] – [Modell paramétereinek kiszámítása] knehez | muszaki_informatika:neuralis_halok_alapjai [2025/03/13 22:57] (current) – knehez | ||
---|---|---|---|
Line 15: | Line 15: | ||
A hálózat bemeneti réteggel indul, amely a zöld színű **x₁** és **x₂** elemeket tartalmazza. Ezek a bemeneti változók képviselik azokat az adatokat, amelyeket a modell feldolgoz. A bemeneteket súlyokkal szorozzák, majd átadják a rejtett rétegek neuronjaiba, | A hálózat bemeneti réteggel indul, amely a zöld színű **x₁** és **x₂** elemeket tartalmazza. Ezek a bemeneti változók képviselik azokat az adatokat, amelyeket a modell feldolgoz. A bemeneteket súlyokkal szorozzák, majd átadják a rejtett rétegek neuronjaiba, | ||
- | A //rejtett réteg(ek)ben// | + | A //rejtett réteg(ek)ben// |
Az **y_pred** a modell végső előrejelzése, | Az **y_pred** a modell végső előrejelzése, | ||
Line 28: | Line 28: | ||
{{: | {{: | ||
+ | |||
+ | ==== Neurális háló, mint osztályozó - Generatív hálók ==== | ||
+ | |||
+ | Az alábbi link a számok felismerését teszi láthatóvá: | ||
+ | |||
+ | Az alábbi linken bemutatjuk, hogyan működik az osztályozás? | ||
+ | |||
+ | http:// | ||
+ | |||
+ | Interaktív neurális háló szimulátor: | ||
+ | |||
==== Modell paramétereinek kiszámítása ==== | ==== Modell paramétereinek kiszámítása ==== | ||
Line 45: | Line 56: | ||
$$ z_3 = z_1 \cdot w_{31} + z_2 \cdot w_{32} $$ | $$ z_3 = z_1 \cdot w_{31} + z_2 \cdot w_{32} $$ | ||
- | Egyben ez lesz a háló előrejelzése \(y_{\text{pred}}\). Ezt a fenti műveletet //forward pass//-nak nevezzük | + | Egyben ez lesz a háló előrejelzése \(y_{\text{pred}}\). Ezt a fenti műveletet //forward pass//-nak nevezzük. |
==== Mátrixok alkalmazása háló modellekben ==== | ==== Mátrixok alkalmazása háló modellekben ==== | ||
- | A fenti képleteket mátrixos és vektoros formában is felírhatjuk: | + | Az egységesítés és a könnyebb kezelhetőség miatt, a fenti képleteket mátrixos és vektoros formában is felírhatjuk: |
Rejtett réteg súlymátrixa: | Rejtett réteg súlymátrixa: | ||
Line 111: | Line 122: | ||
$$ y_{\text{pred}} = W_2 \cdot W_1 \cdot \mathbf{x} $$ | $$ y_{\text{pred}} = W_2 \cdot W_1 \cdot \mathbf{x} $$ | ||
- | ==== Példa konkrét számértékekkel ==== | + | ==== Példa konkrét számértékekkel |
Tegyük fel hogy: | Tegyük fel hogy: | ||
Line 180: | Line 191: | ||
=== Loss Deriváltja a Kimeneti Réteg Súlyaira === | === Loss Deriváltja a Kimeneti Réteg Súlyaira === | ||
- | A // | + | A // |
$$ \frac{\partial \text{Loss}}{\partial w_{31}} = \frac{\partial \text{Loss}}{\partial y_{\text{pred}}} \cdot \frac{\partial y_{\text{pred}}}{\partial w_{31}} $$ | $$ \frac{\partial \text{Loss}}{\partial w_{31}} = \frac{\partial \text{Loss}}{\partial y_{\text{pred}}} \cdot \frac{\partial y_{\text{pred}}}{\partial w_{31}} $$ | ||
+ | $$ \frac{\partial \text{Loss}}{\partial w_{32}} = \frac{\partial \text{Loss}}{\partial y_{\text{pred}}} \cdot \frac{\partial y_{\text{pred}}}{\partial w_{32}} $$ | ||
+ | |||
+ | A fenti két derivált kifejezi, hogy a két súly mennyire van hatással a hibára. | ||
---- | ---- | ||
Line 412: | Line 426: | ||
} | } | ||
</ | </ | ||
+ | |||
+ | ===== Generatív nyelvi modellek ===== | ||
+ | |||
+ | A generatív nyelvi modellek az emberi nyelv megértésére és szöveg generálására irányuló kutatások központi elemei. Ezek a modellek arra képesek, hogy a bemenetként adott szöveg alapján értelmes és összefüggő szöveget állítsanak elő. Az alábbiakban bemutatjuk a generatív nyelvi modellek fejlődését, | ||
+ | |||
+ | === 1.) Hagyományos megközelítések (1950-2000-es évek) === | ||
+ | * **Statikus modellek**: A nyelv feldolgozásához egyszerű szabályalapú rendszereket (pl. grammatikai szabályok) használtak. | ||
+ | * **Markov-láncok**: | ||
+ | Hiányosságok: | ||
+ | |||
+ | === 2.) Neurális hálózatok alkalamazása (2010 körül) === | ||
+ | |||
+ | **Word Embeddingek**: | ||
+ | |||
+ | **Recurrent Neural Networks (RNNs)** Az RNN-ek a szekvenciális adatok feldolgozására készültek. Például egy szó vektora a korábbi szavak kontextusán alapult. | ||
+ | |||
+ | Hiányosságok: | ||
+ | |||
+ | === 3.) Attention Mechanizmus és Transformer (2017) === | ||
+ | |||
+ | **Attention Mechanizmus**: | ||
+ | |||
+ | **Transformer Architektúra (2017)**: Az „Attention is All You Need” című cikkben a Google kutatói bevezették a Transformer modellt. Kulcseleme az önfigyelem (self-attention), | ||
+ | |||
+ | Előnyök: Jobb skálázódás nagyobb adathalmazokon. Hatékony hosszú szövegek feldolgozása. | ||
+ | |||
+ | === 4. Generatív Pre-Trained Modellek (GPT család) === | ||
+ | |||
+ | **GPT-1 (2018)**: Az első modell, amely a Transformer architektúrát alkalmazta nagyméretű nyelvi korpuszokon. | ||
+ | |||
+ | **GPT-2 (2019)**: Nagyobb és erősebb modell, amely képes volt teljes cikkeket generálni emberi beavatkozás nélkül. | ||
+ | |||
+ | **GPT-3 (2022)**: Egy óriási ugrás: 175 milliárd paraméter. | ||
+ | |||
+ | **GPT-4 (2023)**: Még fejlettebb modell, több multimodális képességgel (pl. szöveg és kép feldolgozása). | ||
+ | |||
+ | Számlafeldolgozó minta bemutatása. | ||
+ | |||
+ | === Neurális hálózatok, | ||
+ | |||
+ | - Magyarázható-e a működése? | ||
+ | - Van-e itt intelligencia egyáltalán? | ||
+ | |||
+ | ===== Ellenőrző kérdések ===== | ||
+ | |||
+ | ** Mi a neurális hálózatok alapvető építőeleme? | ||
+ | |||
+ | A) Node | ||
+ | B) Neuron | ||
+ | C) Hurok | ||
+ | D) Adatbázis | ||
+ | | ||
+ | Megoldás: B | ||
+ | |||
+ | ---- | ||
+ | **Milyen műveleteket végez egy neuron alapvetően? | ||
+ | |||
+ | A) Csak adatot tárol | ||
+ | B) Memóriát kezel | ||
+ | C) Súlyozott összegzést és aktivációt végez | ||
+ | D) Csak véletlenszerű értékeket generál | ||
+ | | ||
+ | Megoldás: C | ||
+ | |||
+ | ---- | ||
+ | ** Mi a tipikus célja a neurális hálózatok tanításának? | ||
+ | |||
+ | A) A bemenet másolása a kimenetre változtatás nélkül | ||
+ | B) Az adatokban található mintázatok megtanulása és általánosítása | ||
+ | C) Minél több neuron használata | ||
+ | D) A memóriahasználat csökkentése | ||
+ | | ||
+ | Megoldás: B | ||
+ | |||
+ | ---- | ||
+ | ** Miért alkalmazunk aktivációs függvényeket a neurális hálózatokban? | ||
+ | |||
+ | A) Csak esztétikai okokból | ||
+ | B) Azért, hogy lineáris problémákat oldjunk meg | ||
+ | C) A hálózat nemlinearitásának biztosítására | ||
+ | D) A bemenet normalizálására | ||
+ | | ||
+ | Megoldás: C | ||
+ | |||
+ | ---- | ||
+ | **Mi az alábbiak közül egy közismert aktivációs függvény? | ||
+ | |||
+ | A) XOR | ||
+ | B) NAND | ||
+ | C) Sigmoid | ||
+ | D) AND | ||
+ | |||
+ | Megoldás: C | ||
+ | |||
+ | ---- | ||
+ | **Hogyan nevezzük azt a folyamatot, amikor a hibát visszafelé terjesztjük a hálózaton a tanítás során?** | ||
+ | |||
+ | A) Feedforward | ||
+ | B) Backpropagation | ||
+ | C) Regularizáció | ||
+ | D) Dropout | ||
+ | | ||
+ | Megoldás: B | ||
+ | |||
+ | ---- | ||
+ | ** Mi az " | ||
+ | |||
+ | A) Egyetlen neuron frissítése | ||
+ | B) Egy súlyfrissítés lépése | ||
+ | C) A teljes tanító adathalmaz egyszeri áthaladása | ||
+ | D) A tanítás sebessége | ||
+ | |||
+ | Megoldás: C | ||
+ | |||
+ | ---- | ||
+ | ** Mi a célja a tanulási rátának (learning rate)? ** | ||
+ | |||
+ | A) Meghatározza, | ||
+ | B) Meghatározza, | ||
+ | C) Megadja, hány neuron legyen egy rétegben | ||
+ | D) Meghatározza a tanítás során használt neuronok számát | ||
+ | |||
+ | Megoldás: B | ||
+ | |||
+ | ---- | ||
+ | ** Mi a " | ||
+ | |||
+ | A) A hálózat nem tanul eleget az adatokból | ||
+ | B) A hálózat túl általános megoldást ad | ||
+ | C) A hálózat túl jól illeszkedik a tanuló adathalmazra, | ||
+ | D) A hálózat nem tudja kezelni a bemeneteket | ||
+ | |||
+ | Megoldás: C | ||
+ | |||
+ | ---- | ||
+ | **Mi lehet egy jó módszer a túlillesztés csökkentésére? | ||
+ | |||
+ | A) Több réteg hozzáadása | ||
+ | B) Nagyobb neuronok számának használata | ||
+ | C) Dropout vagy regularizáció alkalmazása | ||
+ | D) Tanítási adatok csökkentése | ||
+ | |||
+ | Megoldás: C | ||
+ | |||
+ | ---- | ||
+ | ** Mi a felügyelt tanulás (supervised learning) jelentése? ** | ||
+ | |||
+ | A) A neurális háló saját maga fedezi fel a mintázatokat | ||
+ | B) Az adatok mellé címkéket (helyes válaszokat) is adunk a tanításhoz | ||
+ | C) A hálózat nem kap visszajelzést a tanulás során | ||
+ | D) Véletlenszerű tanítási módszer használata | ||
+ | |||
+ | Megoldás: B | ||
+ | |||
+ | ---- | ||
+ | ** Mi igaz a „feedforward” folyamatra egy neurális hálóban? ** | ||
+ | |||
+ | A) A bemenetet visszafelé dolgozza fel | ||
+ | B) A bemenetet a kimenet felé haladva dolgozza fel a háló | ||
+ | C) Csak hibaszámításra alkalmas | ||
+ | D) A súlyok módosítására használjuk | ||
+ | |||
+ | Megoldás: B | ||
+ | |||
+ | ---- | ||
+ | **Mi történik egy neurális háló tanításakor, | ||
+ | |||
+ | A) A tanulás gyorsabb és stabilabb lesz | ||
+ | B) A hálózat túl lassan tanul | ||
+ | C) A tanítás instabillá válhat, és nem konvergál optimálisan | ||
+ | D) A neurális háló egyáltalán nem tanul | ||
+ | |||
+ | Megoldás: C | ||
+ | |||
+ | |||
+ | |||
+ | | ||
+ | |||
+ | |||
+ | |||
+ |
muszaki_informatika/neuralis_halok_alapjai.1733397670.txt.gz · Last modified: 2024/12/05 11:21 by knehez