Ученые научили нейронную сеть предупреждать о неточных решениях

Разработчики искусственного интеллекта из Массачусетского технологического института и Гарвардского университета разработали алгоритм, с которым нейросеть сообщает не только результат, но и его правдивость. Оказалось, что она может сомневаться при анализе малознакомых изображений, но достаточно уверенно сообщает об их фальсификации.
Свое исследование ученые представят на конференции машинного обучения NeurIPS, на сайте которой можно ознакомиться с работой.

нейросеть

Все чаще системы искусственного интеллекта используются для принятия решений.

Зачем нейросети признаваться в своей неуверенности?

Все чаще системы искусственного интеллекта используются для принятия решений: например, при вождении автономных автомобилей или медицинской диагностике. Они распознают закономерности в больших наборах данных, на основе чего прогнозируют или осуществляют дальнейшие действия. Но каждый, кто использует в таких целях искусственный интеллект, должен иметь возможность оценить правдивость его выводов и знать, какие риски с ними связанны. Поэтому инженеры разработали для нейронных сетей быстрый способ обработки данных, при котором они будут генерировать не только свои прогнозы и решения, а уровень вероятности результатов. Их правдивость — возможная разница между решением машины проехать перекресток или еще некоторое время на всякий случай подождать.

Как ученые этого достигли?

Существует две оси неопределенности искусственного интеллекта, которые можно смоделировать: неточность данных называется алеаторичной неопределенностью, а неточность прогноза — эпистемичной. Современные методы их оценки возлагаются на несколько запусков нейросети или даже на их выборку, что значительно увеличивает затраты времени и вычислительных ресурсов.
Созданная же инженерами модель предполагает ее нормальную работу с первого же запуска на основе определенного набора данных. Их алгоритм заставляет искусственный интеллект не просто решать за вас, а и приводить доводы в пользу своего решения. Такая модель должна непосредственно отражать свою уверенность в прогнозах, причем так, что будет понятно, нужно настраивать саму нейросеть, или менять некачественные входные данные.

Результат, сгенерированный такой нейросетью, ставит поиск доказательств своего решения выше самого поиска этого решения. Эффективность и возможность масштабирования их подхода может обеспечить точную и быструю оценку рисков, связанных с использованием выводов искусственного интеллекта, необходимую для широкого и безопасного его развертывания в повседневной жизни.

Не врет ученым нейросеть?

Чтобы проверить свой подход, исследователи начали с задания для компьютерного зрения. Они научили свою нейронную сеть анализировать монокулярное цветное изображение, в каждом пикселе которого хранится не цвет, а расстояние до объекта в этой точке. Аналогичные вычисления делает и автономный транспорт, например, для оценки своей близости к пешеходу или других машин. Как и надеялись исследователи, нейросеть усомнилась в своих решениях, когда не могла точно вычислить значение глубины.
Также нейросети устроили «краш-тест» изображениями, которые она никогда не видела во время обучения.

Инженеры учили ее изображениями домашних сцен в помещении, а потом дали ей оценить сцены вождения на улице. Нейросеть постоянно предупреждала, что ее реакция на эти изображения неточна. То есть она смогла оценить нехватку своих «знаний», что будет чрезвычайно полезным в случае распространения искусственного интеллекта в медицине для постановки диагнозов. В то же время ученые решили испытать на своей нейросети искусственно искаженные изображения. Их дефекты были незаметными человеческому глазу, однако нейросеть обозначила их как данные с высоким уровнем ложности.
Такая ее способность распознавать «сфальсифицированы» данные могут помочь выявлять дипфейки.

(Visited 1 times, 1 visits today)

Геннадий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *