Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

28 марта 2016

Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество.

Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев», передает Lenta.ru.

Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем "Твиттере" он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, позволяет не беспокоиться о будущем искусственного интеллекта.

Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.

В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы.

УНИАН

Хочешь узнать больше - читай отзывы

← Вернуться на предыдущую страницу

Читайте также:

Photoshop став доступний в ChatGPT: як тепер безкоштовно обробляти знімки 12 декабря 2025

Photoshop став доступний в ChatGPT: як тепер безкоштовно обробляти знімки

Зірка серіалу "Дивовижна місіс Мейзел" загинула під колесами позашляховика: подробиці жахливої ДТП 12 декабря 2025

Зірка серіалу "Дивовижна місіс Мейзел" загинула під колесами позашляховика: подробиці жахливої ДТП Акторці було 60 років

У Spotify навчили ШІ складати плейлисти за описом 12 декабря 2025

В рамках бета-тестування на музичній платформі Spotify почала працювати функція Prompted Playlists. Слухач може скласти запит до системи штучного інтелекту, і вона за його описом підготує список відтворення.

 

Каталог отзывов





×

Выберите область поиска

  • Авто
  • Одяг / аксесуари
  • Роботодавці
  • Інше