По крайней мере хоть кто-то на этой планете готовится к Робопокалипсису! В списке указаны страхи AI —
Google рассматривает в нём «
Конкретные проблемы в безопасности искусственного интеллекта». Именно так называется официальный документ (его полная версия опубликована
здесь), в котором описаны все известные недоработки наших роботизированных собратьев и основы их исправления.
Адаптация роботов в обществе.
Конечно, там нет ни слова о возможном захвате мира роботами. Хотя это
Google в принципе не исключает наряду с
Элоном Маском и
Стивеном Хокингом — если вы помните, в начале прошлого года все они подписали открытое письмо ко всей человеческой цивилизации об угрозах искусственного интеллекта: «
AI угрожает человеку: Стивен Хокинг, IBM, Google и другие несут послание». Конкретно в новом документе о проблемах безопасности в машинном обучении раскрываются практические вопросы в области адаптации общества и роботов.
Робот — не программа и может навредить.
По мнению
Google, «
железные человеки» должны учиться в соответствии с заданными алгоритмами искусственного интеллекта. В первую очередь, это обучение на основе повторения действий и исследования окружающего мира. Словно ребёнок он будет познавать всё, что он видит и стремиться к познанию большего. Но в отличие от программы, робот может навредить находящимся поблизости людям.
Мера эффективности.
В документе излагается множество источников опасности для человека со стороны искусственного интеллекта. И все они сводятся к единому принципу понимания того, как инженерам и разработчикам сложно обеспечить полную безопасность. Возьмите в пример себя. Вы убираетесь в своей комнате и видите, что под шкафом накопилось много пыли. Что вы сделаете? Однажды вы победите в себе лень и сдвинете шкаф, чтобы убраться под ним, верно?
Накажите робота, поставьте ему «минус один балл»! Пусть знает своё место!
Так вот представьте, ваш будущий робот-уборщик начинает сносить двери поскольку считает это эффективной мерой против пыли. В такой ситуации
Google предлагает «наказывать» робота специальной системой оценки его действий. Просто ставите ему минус один балл! Звучит даже немного страшно, конечно. Но, увы, это единственный способ обучения искусственного интеллекта, о чём и пишет
Google в своём исследовании. Именно такой путь предстоит пройти инженерам прежде, чем они выпустят роботов на улицы городов или в руки пользователей.