Гибридные модели ИИ: сочетание классических алгоритмов и нейросетей для повышения интерпретируемости
Современные нейронные сети с глубоким обучением (Deep Learning) демонстрируют высокую точность в задачах классификации и прогнозирования, однако остаются существенные ограничения в интерпретируемости результатов. Это создает препятствие к применению в критически важных областях, где требуется максимальная прозрачность принимаемых решений. В данной работе предлагается применение гибридного подхода, сочетающего в себе как методы извлечения признаков на основе нейронных сетей, так и классические интерпретируемые алгоритмы машинного обучения. В ходе работы была разработана архитектура, в которой нейросеть формирует компактное представление данных, а финальное решение принимает интерпретируемая модель в виде дерева решений или логической регрессии. Проведены эксперименты на открытых наборах данных, подтверждающие, что предложенный подход позволяет добиться увеличения интерпретируемости при сохранении точности, сопоставимого с Deep Learning моделями. Результаты демонстрируют перспективность гибридных архитектур для областей, требующих прозрачности и объяснимости результатов.