28 марта 2016
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество.
Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев», передает Lenta.ru.
Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем "Твиттере" он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, позволяет не беспокоиться о будущем искусственного интеллекта.
Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.
В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы.
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
Як стрес впливає на рівень цукру в крові 5 мая 2026
Виявляється, що стрес має на це безпосередній вплив.
У РФ вперше оголосили ракетну небезпеку за 2000 км від України 5 мая 2026
Вперше в Росії ракетну небезпеку оголосили за 2000 кілометрів від кордону з Україною - в ХМАО.
Хакер вивів з гаманця Grok токени на суму 204 000 доларів, але потім добровільно повернув їх 5 мая 2026
Нейромережа Grok стала жертвою атаки з боку користувача, який застосував промпт-ін'єкцію, внаслідок чого з офіційного криптогаманця бота було переведено близько 204 000 доларів у токенах DRB. Команда на переказ була замаскована всередині запиту з фрагментом коду, який виглядав як звичайне технічне завдання.