BERT

BERT pracuje s kontextem v textu zleva u zprava.

Bidirectional Encoder Representations from Transformers (BERT), volně Obousměrné kódovací reprezentace z transformátorů, je velký jazykový model, tedy předtrénovaný základní model pro zpracování přirozeného jazyka (NLP). Je založený na transformerech.[1] Je schopen pracovat s kontextem textu zleva i zprava, tedy v celé větě[2], na rozdíl od GPT, který je autoagresivní model a rozumí jen kontextu zleva.[3][4] Důvodem je sada trénovacích dat, základní model u BERT je maskovaný jazykový model, u GPT se jedná o kauzální jazykový model.[5]

  1. HOREV, Rani. BERT Explained: State of the art language model for NLP. Medium [online]. 2018-11-17 [cit. 2023-08-19]. Dostupné online. (anglicky) 
  2. Transformer: A Novel Neural Network Architecture for Language Understanding. ai.googleblog.com [online]. 2017-08-31 [cit. 2023-08-20]. Dostupné online. (anglicky) 
  3. MOTTESI, Celeste. GPT-3 vs. BERT: Comparing the Two Most Popular Language Models. blog.invgate.com [online]. [cit. 2023-08-19]. Dostupné online. (anglicky) 
  4. AJAYI, Demi. How BERT and GPT models change the game for NLP [online]. 2020-12-03 [cit. 2023-08-19]. Dostupné online. (anglicky) 
  5. KUMAR, Ajitesh. BERT vs GPT Models: Differences, Examples [online]. 2023-08-19 [cit. 2023-08-20]. Dostupné online. (anglicky) 

From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by Nelliwinne