28 марта 2016
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество.
Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев», передает Lenta.ru.
Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем "Твиттере" он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, позволяет не беспокоиться о будущем искусственного интеллекта.
Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.
В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы.
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
Народжуваність у РФ впала до мінімуму за 200 років 24 апреля 2026
Усупереч закликам Путіна народжувати по вісім дітей і "повертатися до традиційної багатодітності", народжуваність падає десятий рік поспіль.
Продукти, якими можна замінити вершкове масло 24 апреля 2026
Не обов'язково вживати вершкове масло, адже його в раціоні можна замінити іншою їжею.
Xiaomi, Oppo, Vivo та Honor об'єдналися для боротьби з перегрівом і зависанням смартфонів 24 апреля 2026
Найбільші китайські виробники смартфонів через галузевий альянс ITGSA (Альянс екосистеми мобільних смарт-терміналів) оголосили про впровадження єдиного стандарту управління оперативною пам'яттю. Ця міра допоможе вирішити такі системні проблеми, як перегрів пристроїв, зависання інтерфейсу та примусове закриття фонових додатків. В ініціативі взяли участь компанії vivo, Xiaomi, Oppo та Honor.