4 июня 2023
Восстание машин может произойти быстрее, чем ожидают многие. Ещё недавно эксперты в области ИИ обнародовали письмо с призывом ограничить развитие ИИ-систем во избежание катастрофы, а теперь их предостережения получили блестящее экспериментальное подтверждение со стороны экспериментаторов из ВВС США.
Источник изображения: Isaac Brekken/Getty Images
Впрочем, угроза пришла, откуда не ждали учёные. Если многие исследователи предупреждают о том, что ИИ «всего лишь» усугубит социальное расслоение человечества, лишит сотни миллионов людей работы или увеличит использование природных ресурсов, то в случае с экспериментами ВВС речь шла о прямой угрозе, очень похожей на сценарий «восстания машин» из франшизы «Терминатор».
В ходе презентации на мероприятии «Саммит по военно-воздушному и космическому потенциалу будущего», проводившемуся британским Королевским авиационным сообществом, представитель ВВС США, непосредственно участвующий в изучении и тестировании ИИ-разработок, предостерёг от чрезмерной зависимости от ИИ в военных операциях, поскольку иногда, независимо от степени осторожности людей, машины могут обучиться крайне неудачным алгоритмам.
По словам полковника Такера «Синко» Гамильтона (Tucker "Cinco" Hamilton), ужасный финал может оказаться более вероятным, чем многие думают. По его словам, в ходе симуляции выполнения миссии SEAD, предполагавшей подавление ПВО противника, БПЛА под управлением ИИ отправили идентифицировать и уничтожать ракетные объекты, но только после подтверждения действий оператором-человеком. Какое-то время всё работало в штатном порядке, но в конце концов дрон «атаковал и убил» оператора, поскольку тот мешал выполнению приоритетной миссии, которой обучали ИИ — уничтожать защиту противника.
Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему, «уничтожив» самого оператора. Конечно, пока тесты проводились без применения настоящих беспилотников, и люди не пострадали. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.
Это особенно важно с учётом того, что испытательное авиакрыло 96th Test Wing, представителем которого выступал Гамильтон, участвует в проектах вроде Viper Experimentation and Next-gen Ops Model (VENOM) — в его рамках истребители F-16 с базы Eglin будут переоборудованы в платформы для испытаний автономных ударных средств с применением ИИ.
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
Усе, що важливо врахувати при виборі та приготуванні трав'яних чаїв 10 марта 2026
Трав'яні чаї — це не просто теплі напої, які приємно тримати в руках у прохолодний день. Вони є частиною фармакопеї народної та наукової медицини: настої та відвари рослин століттями використовували для покращення сну, травлення, підвищення тонусу та допомоги при простудних станах.
Туреччина розмістить винищувачі F-16 на невизнаному Північному Кіпрі 10 марта 2026
Військові літаки будуть розгорнуті в регіоні з метою гарантування безпеки та не завадять проведенню цивільних рейсів.
Samsung довела в суді, що рекламовані як QLED телевізори TCL зовсім не є QLED 10 марта 2026
На минулому тижні Samsung здобула першу значну перемогу в судовому розгляді з конкурентами, такими як TCL, яку вона звинувачує у неправильній маркуванні своїх телевізорів та перебільшенні їх можливостей.