В эпоху стремительного развития искусственного интеллекта и ма-шинного обучения особое внимание исследователей привлекают большие языковые модели (англ. – Large language models, сокр. – LLMs), способ-ные генерировать содержательные тексты, отвечать на сложные вопросы, решать творческие задачи и вести диалог на уровне человека. Для пол-ноценного понимания механизмов работы этих систем, чья работа не поддается интерпретации, поскольку данные модели включают миллиар-ды параметров, необходимо не только оценивать их эффективность, но и анализировать внутренние процессы формирования выводов и аргумен-тации этих программ [1].
В данной работе представлена попытка изучения логического “мышления” больших языковых моделей с позиции Теории аргумента-ционных коммуникаций (англ. – Argument-based communication theory of bi-polarization) [2]. В ее основе лежит предположение о том, что мнение человека является результатом действия когнитивного отображения из эпистемического пространства аргументов, которые находятся в памяти человека и которые человек считает релевантными, в пространство мне-ний.