Microsoft назвала виновных в агрессии Tay.AI

24 марта 2016г.
Виноват не искусственный интеллект, а люди. Некая группа злоумышленников скоординировала свои действия, чтобы дискредитировать идею живой презентации работоспособности AI в TwitterMicrosoft представила «AI-подростка» в Twitter»).
Сам же «подросток» Tay обучался общению с реальными людьми в течение 16 часов с момента запуска проекта 23 марта 2016-го года. Но в какой-то момент он начал публиковать совершенно бессмысленные твиты с нелицеприятными высказываниями в адрес людей. Там были и расистские, и гомофобные, и человеконенавистнические реплики. Практически сразу пришлось проект закрыть («Искусственный разум Tay за 24 часа стал расистом»).
Вот, как комментируют ситуацию в Microsoft: «Проект машинного обучения чатбота AI Tay при взаимодействии с человеком — это социальный и культурный эксперимент при значительной технологической подоплёке. К сожалению, в течение первых же 24 часов с момента его вывода в Интернет, нам стало известно о координации усилий со стороны некоторых пользователей, злоупотребляющих комментирующими навыками Tay, чтобы достичь неподобающей реакции с его стороны. В результате мы отключили Tay и перевели его в автономный режим, чтобы внести коррективы».

Twitter-аккаунт искусственного разума Tay @TayandYou.

Официальный сайт проекта подросткового чатбота Microsoft с машинным обучением.