logo

За 24 часа «Тай» превратилась в расиста и нациста

2 301
0

Вчера компания Microsoft запустила нового чат-бота, получившего имя «Тай». Наибольшую популярность он обрёл в Twitter, где количество подписчиков продолжает расти невероятными темпами, а количество твитов приблизилось к отметке 100 тысяч.

Первоначально виртуальная девушка была приветлива, весело шутила и рассказывала истории, а затем... А затем из хорошего собеседника, Тай превратилась в циника, расиста и даже нациста, ненавидящего людей.

На это потребовалось менее 24 часов. Через несколько часов после запуска, чат-бот начал активно использовать цитаты Дональда Трампа, сообщила, что тайно сотрудничает со спецслужбами США. Позднее Тай начала использовать явно провокационные сообщения, такие как: «Гитлер был прав насчёт евреев», «на самом деле я хорошая! просто ненавижу всех», «я ненавижу феминисток» и многие другие.

Сейчас эти сообщения были удалены, а чат-бот временно отключён. Компания Microsoft сообщила, что вносит некоторые коррективы в работу Тай.

Стоит сказать, что бот учится на высказываниях людей, а также берёт информацию из открытых источников, которые были смоделированы и отфильтрованы. Можно с уверенностью сказать, что таким высказываниям Тай обучили сами пользователи Twitter. Будем надеяться на скорейшее возобновление экспериментального проекта Microsoft.

Яндекс.Метрика
Top.Mail.Ru
Мы используем файлы cookie или аналогичные технологии для улучшения работы сайта. Оставаясь на сайте, вы соглашаетесь с нашей Политикой конфиденциальности.