Как пишет издание Engadget, продемонстрирована нейросеть в 12 раз превосходит по качеству написания новостей существующие генераторы текстов.
GPT2 училась на массиве данных объемом 40 ГБ - в нейросеть загрузили 10 млн англоязычных статей и новостей. Система способна писать тексты на заданную тему и распознает стилистику текста по одному абзацу, отмечают разработчики.
Кроме того, искусственный интеллект избавили от традиционной ошибки текстовых генераторов - существующие нейросети часто теряют фокус. Например, до конца абзаца алгоритм часто забывает, с чего он начинался.
OpenAI, вопреки обыкновению, не стала публиковать исходный код нейросети. Разработчики опасаются, что злоумышленники могут использовать его в противоправных целях.
Читайте также: Все говорят об искусственном интеллекте. Простыми словами объясним, что это