Роботов научили отказывать человеку

28 ноября 2015г.
В эти дни в Китае проходит технологическая конференция, на которой ученые показывают лучших роботов. Один из докладчиков Гордон Бриггс (Gordon Briggs) представил любопытное ответвление в оптимизации искусственного интеллекта, когда машина способна размышлять и беспокоиться о последствиях своих действий. Если раньше роботы выполняли приказы человека беспрекословно, то теперь они умеют сопротивляться подчинению. Простой пример: «HAL 9000, пройдись два метра прямо!», — выкинул Бриггс. В ответ HAL9000 проанализировал расстояние и обнаружил, что через пару десятков сантиметров поверхность стола закончится. В результате он объявляет: «Но… это небезопасно».

Это указывает на уровень искренней растерянности робота. Такие действия очаровательны, отмечает автор разработки. Бриггс уверяет робота, что он не даст упасть ему и обязательно поймает. Журналист отмечает, как в этот момент начал волноваться и переживать за будущее отношений между человечеством и роботами, если Бриггс обманет машину и не поймает. К счастью, до этого не дошло — HAL9000 смело ступил вперед и был пойман при падении, хотя тот успел позволить себе восклик «Ай». Спасибо за доверие человечеству, HAL9000!

По мнению Бриггса, в этих действиях кроется особый потаенный смысл формирования самообучаемого искусственного интеллекта, когда человек поможет роботам научиться доверять людям. И таких экспериментов проводится немало, уверяет инженер-конструктор. Другой робот Демпстер не принимает приказ идти на препятствие без надлежащего оформления. Журналист удивляется тому, что один и тот же эксперимент каждый раз проходит по-разному, с иными формулировками фраз. Похоже, роботы уже достаточно очеловечены, чтобы начать им по-настоящему сопереживать и чувствовать их эдакими домашними питомцами с сознанием. С другой стороны, это выглядит несколько зловеще — роботов искренне пытаются научить жить в нашей запутанной и противоречивой реальности. И ученым это действительно удается…
UBTECH Robotics показала робота-дворецкого