| |
Tipus | model de llenguatge extens i transformadors generatius pre-entrenats |
---|---|
Versió inicial | 14 febrer 2019 |
Versió estable | |
Llicència | llicència MIT |
Equip | |
Desenvolupador(s) | OpenAI |
Més informació | |
Lloc web | openai.com… (anglès) |
| |
← GPT-1 GPT-3 → |
GPT-2 (Generative Pre-trained Transformer 2) és un sistema que fa ús de la intel·ligència artificial per generar textos creada el febrer del 2019 per OpenAI, un laboratori de recerca impulsat per Elon Musk. Es tracta d'un sistema format per 1.5 bilions de paràmetres que generen text preveient paraula a paraula. D'aquesta manera, és capaç de traduir textos automàticament, respondre preguntes, resumir fragments de text... Aquest text que genera realment és extret d'unes 8 milions pàgines d'Internet, per la qual cosa compta amb un conjunt de dades d'uns 40GB de text per utilitzar.[1]