From language GPT to image GPT
In language, unsupervised learning algorithms that rely on word prediction (like GPT-2 and BERT) have been extremely successful, achieving top performance on a wide array of language tasks. One possible reason for this success is that instances of downstream language tasks appear naturally in text: questions are often followed by answers (which could help with question-answering) and passages are often followed by summaries (which could help with summarization). In contrast, sequences of pixels do not clearly contain labels for the images they belong to.
https://openai.com/blog/image-gpt/Я же говорил и запатентовал 10 лет назад, что искать изображения возможно только если они объяснены текстом!
У кого теперь есть сомнения в заговоре? В том что 10 лет меня угнетали сволочи из Хуйгля, Оракла и ФБ? Подрядив для этого предателей из ЦРУ?