Ученые Массачусетского технологического института создали сеть, способную объяснять процесс принятия решений. Проект Transparency by Design Network (TbD-net) призван помочь исследователям в решении проблемы с прозрачностью аргументации ИИ.
Открытость внутренних процессов, происходящих в нейронной сети – одна из главных проблем для современных разработчиков. Внутренний процесс принятия решения нейросетью пока остается для ученых закрытым. Повышение прозрачности аргументации поможет разработчикам повысить обучаемость ИИ. В случае с TbD-net возможность наблюдать за логикой нейросети и вносить правки во время процесса помогло повысить точность решений до 99,1%.
TbD-net работает по принципу конвейера, разбивая задачу на отдельные элементы и поэтапно продвигаясь от простого вопроса к более сложному. Например, отвечая на запрос «подсчитать количество больших металлических цилиндров на изображении», ИИ сначала определил размер объектов, затем их форму, материал и только потом – количество. Другими словами, нейросеть сначала нашла самые большие предметы, затем выделила среди них цилиндрические, затем – идентифицировала материал и лишь на последнем шаге ответила на вопрос о количестве предметов.
TbD-net – не первая разработка, направленная на решение проблемы прозрачности аргументации. В 2017 году Минобороны США анонсировало разработку XAI – искусственный интеллект, созданный специально для демонстрации неочевидных процессов внутри нейросетей. Ученые предполагают, что понимание внутренней логики ИИ значительно повысит качество IoT-разработок, особенно в сфере беспилотных автомобилей и городской инфраструктуры.