13 декабря 2023
Користувачі чат-бота зі штучним інтелектом ChatGPT виявили, що він іноді поводиться так само, як і людина. А саме може ухилятися від виконання поставлених завдань. Про це повідомляє Gizchina.
У деяких випадках бот відмовлявся відповідати. Також він міг переривати діалог через серію запитань. Часом і зовсім, ChatGPT давав приписку людям "Ви можете зробити це самі".
Розробники відреагували на подію і зазначили, що проблема не масова. Вони шукають шляхи виправлення. Вказується, що чат-бот лінується на мовній моделі GPT-4, яка йде за платною підпискою. У безкоштовній GPT-3.5 таких проблем не виявлено.
Нагадаємо, раніше ми писали про те, що вийшов новий потужний штучний інтелект Google Gemini. Він має скласти конкуренцію ChatGPT.
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
Як ми самі вбиваємо імунітет — 11 прихованих причин, про які не здогадуємося 8 июля 2025
Як ми самі вбиваємо імунітет — 11 прихованих причин, про які не здогадуємося
Трамп: Я допомагаю Україні. Я дуже сильно їй допомагаю 7 июля 2025
Американський лідер поділився розчаруванням після останнього спілкування з Володимиром Путіним і водночас висловив задоволення від діалогу з українським президентом.
Тіна Кунакі продовжує тішити фанатів контентом з відпочинку 7 июля 2025
Колишня дружина актора Венсана Касселя, французька модель Тіна Кунакі продовжує тішити фанатів контентом з відпочинку.