logo

За 24 часа «Тай» превратилась в расиста и нациста

Автор:

Вчера компания Microsoft запустила нового чат-бота, получившего имя «Тай». Наибольшую популярность он обрёл в Twitter, где количество подписчиков продолжает расти невероятными темпами, а количество твитов приблизилось к отметке 100 тысяч.

Первоначально виртуальная девушка была приветлива, весело шутила и рассказывала истории, а затем... А затем из хорошего собеседника, Тай превратилась в циника, расиста и даже нациста, ненавидящего людей.

На это потребовалось менее 24 часов. Через несколько часов после запуска, чат-бот начал активно использовать цитаты Дональда Трампа, сообщила, что тайно сотрудничает со спецслужбами США. Позднее Тай начала использовать явно провокационные сообщения, такие как: «Гитлер был прав насчёт евреев», «на самом деле я хорошая! просто ненавижу всех», «я ненавижу феминисток» и многие другие.

Сейчас эти сообщения были удалены, а чат-бот временно отключён. Компания Microsoft сообщила, что вносит некоторые коррективы в работу Тай.

Стоит сказать, что бот учится на высказываниях людей, а также берёт информацию из открытых источников, которые были смоделированы и отфильтрованы. Можно с уверенностью сказать, что таким высказываниям Тай обучили сами пользователи Twitter. Будем надеяться на скорейшее возобновление экспериментального проекта Microsoft.

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.