logo

За 24 часа «Тай» превратилась в расиста и нациста

Автор:

Вчера компания Microsoft запустила нового чат-бота, получившего имя «Тай». Наибольшую популярность он обрёл в Twitter, где количество подписчиков продолжает расти невероятными темпами, а количество твитов приблизилось к отметке 100 тысяч.

Первоначально виртуальная девушка была приветлива, весело шутила и рассказывала истории, а затем... А затем из хорошего собеседника, Тай превратилась в циника, расиста и даже нациста, ненавидящего людей.

На это потребовалось менее 24 часов. Через несколько часов после запуска, чат-бот начал активно использовать цитаты Дональда Трампа, сообщила, что тайно сотрудничает со спецслужбами США. Позднее Тай начала использовать явно провокационные сообщения, такие как: «Гитлер был прав насчёт евреев», «на самом деле я хорошая! просто ненавижу всех», «я ненавижу феминисток» и многие другие.

Сейчас эти сообщения были удалены, а чат-бот временно отключён. Компания Microsoft сообщила, что вносит некоторые коррективы в работу Тай.

Стоит сказать, что бот учится на высказываниях людей, а также берёт информацию из открытых источников, которые были смоделированы и отфильтрованы. Можно с уверенностью сказать, что таким высказываниям Тай обучили сами пользователи Twitter. Будем надеяться на скорейшее возобновление экспериментального проекта Microsoft.

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.


Перевод: Программа Windows Insider сбилась с пути
Анонс Windows 10 Build 17063 — Timeline, Sets и многое другое
Перевод: История перехода Microsoft Edge на Chromium
Анонс Windows 10 Insider Preview Build 17074 для ПК