13 июля 2025
Білорусь і Росія мають намір створити власну модель штучного інтелекту, яка ґрунтуватиметься на "традиційних цінностях" і "буде зрозумілою" для жителів цих країн. Про це заявив держсекретар Союзної держави Сергій Глазьєв на міжнародній конференції, цитує білоруське держінформагентство БЕЛТА
"Стоїть завдання розробки нашого власного ШІ, який був би заснований на наших традиційних цінностях, якому можна було б довіряти, спиратися на нього, отримувати об'єктивну інформацію", - йдеться в повідомленні.
Нині молодь Білорусі користується переважно іноземними чатами ШІ - американськими, китайськими, заявив чиновник.
"Однак останні приклади глибокого тестування ШІ західного типу показали, що один зі знаменитих чатів впав у расизм, нацизм і прославляння фашизму (імовірно, натяк на чат-бот штучного інтелекту Grok від Ілона Маска, який хвалив Адольфа Гітлера і поширював антисемітську риторику - ред.). Тож треба дуже обережно ставитися до того, які цінності закладаються всередину ШІ", - резюмував держсекретар.
Нагадаємо, самопроголошений президент Білогрусі Олександр Лукашенко заявив, що білорусько-російська інтеграція має стати незворотною, але об’єднання найближчим часом не буде.
Новини від Корреспондент.net в Telegram та WhatsApp. Підписуйтесь на наші канали https://t.me/korrespondentnet та WhatsApp
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
Pip-Boy у реальності: новий годинник NASA Artemis Watch 2.0 уже у продажу 8 апреля 2026
Pip-Boy у реальності: новий годинник NASA Artemis Watch 2.0 уже у продажу
iPhone 18 Pro та складаний Ultra розкриті інсайдером 8 апреля 2026
iPhone 18 Pro та складаний Ultra розкриті інсайдером
Дослідники підрахували кількість хибних відповідей у оглядах штучного інтелекту Google 8 апреля 2026
Журналісти The New York Times спільно зі стартапом Oumi, проаналізувавши роботу функції Google ШІ-огляди (AI Overviews), прийшли до висновку, що нейромережа щодня генерує десятки мільйонів помилкових відповідей, незважаючи на високий відсоток загальної достовірності наданих даних. Штучний інтелект помиляється приблизно в 10 % випадків, ненавмисно надаючи користувачам хибну інформацію.