13 декабря 2023
Користувачі чат-бота зі штучним інтелектом ChatGPT виявили, що він іноді поводиться так само, як і людина. А саме може ухилятися від виконання поставлених завдань. Про це повідомляє Gizchina.
У деяких випадках бот відмовлявся відповідати. Також він міг переривати діалог через серію запитань. Часом і зовсім, ChatGPT давав приписку людям "Ви можете зробити це самі".
Розробники відреагували на подію і зазначили, що проблема не масова. Вони шукають шляхи виправлення. Вказується, що чат-бот лінується на мовній моделі GPT-4, яка йде за платною підпискою. У безкоштовній GPT-3.5 таких проблем не виявлено.
Нагадаємо, раніше ми писали про те, що вийшов новий потужний штучний інтелект Google Gemini. Він має скласти конкуренцію ChatGPT.
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
У Газі 133 людини померли з голоду через блокаду 28 июля 2025
Влада Гази заявила, що лише за останню добу в лікарнях зареєстровано шість випадків смерті від виснаження, включно з двома дітьми.
Джонні Депп проміняв Голлівуд на село в Англії: чому він це зробив і який вигляд має особняк 28 июля 2025
Джонні Депп проміняв Голлівуд на село в Англії: чому він це зробив і який вигляд має особняк Він орендує розкішний історичний маєток
Вучич спростував слова міністра про можливі санкції проти РФ 28 июля 2025
Президент Сербії категорично заперечив можливість запровадження його країною санкцій проти Росії.