Google публикует список опасности роботов

23 июня 2016г.
По крайней мере хоть кто-то на этой планете готовится к Робопокалипсису! В списке указаны страхи AI — Google рассматривает в нём «Конкретные проблемы в безопасности искусственного интеллекта». Именно так называется официальный документ (его полная версия опубликована здесь), в котором описаны все известные недоработки наших роботизированных собратьев и основы их исправления.

Адаптация роботов в обществе.

Конечно, там нет ни слова о возможном захвате мира роботами. Хотя это Google в принципе не исключает наряду с Элоном Маском и Стивеном Хокингом — если вы помните, в начале прошлого года все они подписали открытое письмо ко всей человеческой цивилизации об угрозах искусственного интеллекта: «AI угрожает человеку: Стивен Хокинг, IBM, Google и другие несут послание». Конкретно в новом документе о проблемах безопасности в машинном обучении раскрываются практические вопросы в области адаптации общества и роботов.

Робот — не программа и может навредить.

По мнению Google, «железные человеки» должны учиться в соответствии с заданными алгоритмами искусственного интеллекта. В первую очередь, это обучение на основе повторения действий и исследования окружающего мира. Словно ребёнок он будет познавать всё, что он видит и стремиться к познанию большего. Но в отличие от программы, робот может навредить находящимся поблизости людям.

Мера эффективности.

В документе излагается множество источников опасности для человека со стороны искусственного интеллекта. И все они сводятся к единому принципу понимания того, как инженерам и разработчикам сложно обеспечить полную безопасность. Возьмите в пример себя. Вы убираетесь в своей комнате и видите, что под шкафом накопилось много пыли. Что вы сделаете? Однажды вы победите в себе лень и сдвинете шкаф, чтобы убраться под ним, верно?

Накажите робота, поставьте ему «минус один балл»! Пусть знает своё место!


Так вот представьте, ваш будущий робот-уборщик начинает сносить двери поскольку считает это эффективной мерой против пыли. В такой ситуации Google предлагает «наказывать» робота специальной системой оценки его действий. Просто ставите ему минус один балл! Звучит даже немного страшно, конечно. Но, увы, это единственный способ обучения искусственного интеллекта, о чём и пишет Google в своём исследовании. Именно такой путь предстоит пройти инженерам прежде, чем они выпустят роботов на улицы городов или в руки пользователей.