​«Востания машин не будет!» - Google DeepMind и Open AI работают над безопасностью искусственного интеллекта

11 июля 2017 г. 16:52

Многих страшит вариант развития будущего, когда роботы, достигнув определенного уровня развития интеллекта, восстанут против человека и либо уничтожат его, либо сделают своим рабом. Такое будущее красочно описано в фантастических фильмах «Матрица» и «Терминатор», а также во множестве научно-фантастических романов. С целью не допустить такой техно-апокалипсис, двумя крупными технологическими компаниями был создан совместный проект по исследованию «умного» софта, способного превзойти человека.

В исследовательской статье, опубликованной Google DeepMind и Open AI (лаборатория, частично финансируемая Элоном Маском), рассказывается о новом методе машинного обучения. Его главная особенность – копирование поведения человека при решении определенных задач. Данный метод является более безопасным, нежели давать возможность ИИ искать самостоятельные решения с непредсказуемыми последствиями в дальнейшем.

Интересно отметить, что самым проблематичным в исследование стало то, что ИИ рассматривает обман, как самый подходящий способ для достижения целей. Это выглядит приблизительно так: искусственный интеллект предпочтет спрятать разбросанный мусор, чем убрать его. По сути – задача выполнена, но метод ее исполнения абсолютно не адекватен.

Чтобы решить возникшую проблему, связанную с системой вознаграждений, исследователи пошли таким путем – был использован человеческий вклад для вознаграждения ИИ, вместо создания слишком сложной системы вознаграждений, которую машины могли бы без труда обойти. Таким образом удалось заставить искусственный интеллект выполнять задачи именно тем образом, каким хотели того инструкторы, взамен получая «похвалу».

Несмотря на то, что данный способ не лишен недостатков, и не может быть применен во всех сферах, поскольку обратная связь с человеком занимает слишком много времени, его можно считать настоящим прорывом в области ИИ. Благодаря проведенному исследованию, человечество, вероятней всего, сможет обезопасить себя в будущем от угроз связанных со «слишком умными» машинами.

Интересные статьи