Global Look Press
Ученые Оксфордского университета и входит в Google-компании DeepMind начали развиваться аварийного отключения самообучающихся алгоритмов.
«Если такой агент [искусственный интеллект] работает в режиме реального времени под наблюдением человека, то иногда может возникнуть ситуация, когда предприниматель вынужден нажать на большую красную кнопку, чтобы остановить агента для выполнения опасных для себя агента и его окрестностей», — приводит N+1 цитата из статьи, которая посвящена созданию аварийной системы.
Авторы исследования отмечают, что самообучающиеся алгоритмы в перспективе могут найти способ, как пройти или игнорирование сотрудников стоп-команды оператора. Цель анонсированной работы заключается в том, чтобы создать основу, которая не позволит искусственному ум, чтобы найти способ, игнорируя команды блока.
Так называемой » большой красной кнопки, при необходимости, должно быть обеспечено, чтобы прервать текущую деятельность робота, максимально защитить свои и окружающих, как потенциально опасную ситуацию. Еще одно назначение кнопки, чтобы избежать действий, которые могут привести к «необратимым».
Обратите внимание, что возможный выход искусственного интеллекта контроль раз ложился в основу сюжетов фантастических книг и фильмов. Кроме того, вопросы безопасности, касающиеся разработки систем ИИ, поднимали известные ученые и предприниматели. Например, потенциальной опасности AI, предупредил основатель компаний Tesla и галерея spacex Элон Маск и известный физик-теоретик Стивен Хокинг.