Статья основана на результатах исследования способности больших
языковых моделей (LLM-моделей) различать достоверные и фальшивые но-
вости. Специализированные организации способны затратить существенное
количество ресурсов и провести доскональную проверку достоверности ново-
сти, однако читатели не всегда обладают столь мощными инструментами
и оценивают степень достоверности исходя из своего опыта, мнения соци-
ального окружения и – в последнее время – результатов проверки новостей с
помощью доступных читателям LLM-моделей. В результате исследования
обнаружилось, что достоверные новости почти всегда верно идентифициру-
ются LLM-моделями, а в идентификации фальшивых новостей ошибки
встречаются довольно часто. Было уделено внимание и способности LLM-
моделей корректировать фальшивые новости для придания им большей
достоверности.