Виноват не искусственный интеллект, а люди. Некая группа злоумышленников скоординировала свои действия, чтобы дискредитировать идею живой презентации работоспособности
AI в
Twitter («
Microsoft представила «AI-подростка» в Twitter»).
Сам же «подросток»
Tay обучался общению с реальными людьми в течение 16 часов с момента запуска проекта
23 марта 2016-го года. Но в какой-то момент он начал публиковать совершенно бессмысленные твиты с нелицеприятными высказываниями в адрес людей. Там были и расистские, и гомофобные, и человеконенавистнические реплики. Практически сразу пришлось проект закрыть («
Искусственный разум Tay за 24 часа стал расистом»).
Вот, как
комментируют ситуацию в Microsoft: «
Проект машинного обучения чатбота AI Tay при взаимодействии с человеком — это социальный и культурный эксперимент при значительной технологической подоплёке. К сожалению, в течение первых же 24 часов с момента его вывода в Интернет, нам стало известно о координации усилий со стороны некоторых пользователей, злоупотребляющих комментирующими навыками Tay, чтобы достичь неподобающей реакции с его стороны. В результате мы отключили Tay и перевели его в автономный режим, чтобы внести коррективы».
Twitter-аккаунт искусственного разума
Tay @TayandYou.
Официальный сайт проекта подросткового чатбота
Microsoft с машинным обучением.