digitalis_technologiak_ikt_technologiak:mesterseges_intelligencia
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
digitalis_technologiak_ikt_technologiak:mesterseges_intelligencia [2024/11/18 14:57] – [Neurális háló] knehez | digitalis_technologiak_ikt_technologiak:mesterseges_intelligencia [2025/03/04 22:12] (current) – [Generatív nyelvi modellek] knehez | ||
---|---|---|---|
Line 1: | Line 1: | ||
===== Mesterséges Intelligencia ===== | ===== Mesterséges Intelligencia ===== | ||
+ | ===== Neurális hálók ===== | ||
==== Biológiai és mesterséges neuron ==== | ==== Biológiai és mesterséges neuron ==== | ||
Line 11: | Line 12: | ||
==== Neurális háló ==== | ==== Neurális háló ==== | ||
- | {{: | + | Az alábbi kép egy mesterséges neurális hálózat egyszerű modelljét ábrázolja. |
+ | |||
+ | {{: | ||
+ | |||
+ | A hálózat bemeneti réteggel indul, amely a zöld színű **x₁** és **x₂** elemeket tartalmazza. Ezek a bemeneti változók képviselik azokat az adatokat, amelyeket a modell feldolgoz. A bemeneteket súlyokkal és eltolásokkal kombinálják, | ||
+ | |||
+ | A //rejtett réteg(ek)ben// | ||
+ | |||
+ | Az **y_pred** a modell végső előrejelzése, | ||
+ | |||
+ | Ez az ábra segíthet megérteni a neurális hálózatok alapvető működési elvét: a bemenetek fokozatos átalakulását a különböző rétegeken keresztül, amelyek végül egy adott kimeneti értékhez vezetnek. Ezt a folyamatot a gépi tanulás során finoman hangolják (optimalizálják), | ||
+ | |||
+ | {{: | ||
+ | |||
+ | ==== Neurális háló, mint osztályozó - Generatív hálók ==== | ||
+ | |||
+ | Az alábbi link a számok felismerését teszi láthatóvá: | ||
+ | |||
+ | Az alábbi linken bemutatjuk, hogyan működik az osztályozás? | ||
+ | |||
+ | http:// | ||
+ | |||
+ | ==== Generatív nyelvi modellek ==== | ||
+ | |||
+ | A generatív nyelvi modellek az emberi nyelv megértésére és szöveg generálására irányuló kutatások központi elemei. Ezek a modellek arra képesek, hogy a bemenetként adott szöveg alapján értelmes és összefüggő szöveget állítsanak elő. Az alábbiakban bemutatjuk a generatív nyelvi modellek fejlődését, | ||
+ | |||
+ | === 1.) Hagyományos megközelítések (1950-2000-es évek) === | ||
+ | * **Statikus modellek**: A nyelv feldolgozásához egyszerű szabályalapú rendszereket (pl. grammatikai szabályok) használtak. | ||
+ | * **Markov-láncok**: | ||
+ | Hiányosságok: | ||
+ | |||
+ | === 2.) Neurális hálózatok alkalamazása (2010 körül) === | ||
+ | |||
+ | **Word Embeddingek**: | ||
+ | |||
+ | **Recurrent Neural Networks (RNNs)** Az RNN-ek a szekvenciális adatok feldolgozására készültek. Például egy szó vektora a korábbi szavak kontextusán alapult. | ||
+ | |||
+ | Hiányosságok: | ||
+ | |||
+ | === 3.) Attention Mechanizmus és Transformer (2017) === | ||
+ | |||
+ | **Attention Mechanizmus**: | ||
+ | |||
+ | **Transformer Architektúra (2017)**: Az „Attention is All You Need” című cikkben a Google kutatói bevezették a Transformer modellt. Kulcseleme az önfigyelem (self-attention), | ||
+ | |||
+ | Előnyök: Jobb skálázódás nagyobb adathalmazokon. Hatékony hosszú szövegek feldolgozása. | ||
+ | |||
+ | === 4. Generatív Pre-Trained Modellek (GPT család) === | ||
+ | |||
+ | **GPT-1 (2018)**: Az első modell, amely a Transformer architektúrát alkalmazta nagyméretű nyelvi korpuszokon. | ||
+ | |||
+ | **GPT-2 (2019)**: Nagyobb és erősebb modell, amely képes volt teljes cikkeket generálni emberi beavatkozás nélkül. | ||
+ | |||
+ | **GPT-3 (2022)**: Egy óriási ugrás: 175 milliárd paraméter. | ||
+ | |||
+ | **GPT-4 (2023)**: Még fejlettebb modell, több multimodális képességgel (pl. szöveg és kép feldolgozása). | ||
+ | |||
+ | Számlafeldolgozó minta bemutatása. | ||
+ | |||
+ | === RAG technika === | ||
+ | |||
+ | ... | ||
+ | |||
+ | === Neurális hálózatok, | ||
+ | |||
+ | - Magyarázható-e a működése? | ||
+ | - Van-e itt intelligencia egyáltalán? |
digitalis_technologiak_ikt_technologiak/mesterseges_intelligencia.1731941867.txt.gz · Last modified: 2024/11/18 14:57 by knehez