УДК 004.89.032.26
В данной работе рассматривается процесс обучения нейронной сети GPT-2, особенности ее разновидностей, внутренняя архитектура. Описаны особенности обучения, критерии выбора данных для обучения, а также описан процесс и результаты обучения для двух различных датасетов, на основе которых был построен вывод об обратном влиянии количества данных на результат обучения нейронной сети в контексте текстовых задач.