BERT (hizkuntz eredua)

BERT teknika, Google-k Hizkuntzaren prozesamendurako garatu duen aurre-entrenatutako teknika bat da. Honela ere esatenzaio: Bidirectional Encoder Representations from Transformers, edo transformerretarako kodeketa bidirekzionalen errepresentazioa. BERT 2018an sortu eta argitaratu zuen Jacob Devlin-ek Googleko bere lankideekin.[1][2] Googlek BERT aprobetxatzen du erabiltzaileen bilaketak hobeto ulertzeko. [3]

Hasieran garatu zuten ingelesezko BERT eredua bi testu corpus huts baino ez zituen erabiltzen aurre-prestakuntzan: BookCorpus eta ingelesezko Wikipedia.[1]

Azkenaldian euskararekin aplikatuta ere emaitza onak lortu dira.[4][5]

  1. a b Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina. (2019-05-24). «BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding» arXiv:1810.04805 [cs] (Noiz kontsultatua: 2020-06-09).
  2. (Ingelesez) «Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing» Google AI Blog (Noiz kontsultatua: 2020-06-09).
  3. (Ingelesez) «Understanding searches better than ever before» Google 2019-10-25 (Noiz kontsultatua: 2020-06-09).
  4. Aipuaren errorea: Konpondu beharreko erreferentzia kodea dago orri honetan: ez da testurik eman :3 izeneko erreferentziarako
  5. «Conversational Question Answering in Low Resource Scenarios: A Dataset and Case Study for Basque | Ixa taldea» ixa.si.ehu.eus (Noiz kontsultatua: 2020-09-28).

From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by Nelliwinne