В Microsoft опасаются слишком умного искусственного интеллекта

9 июня 2021

ИИ может стать опасным в руках государства
ИИ может стать опасным в руках государства
pixabay.com

Брэд Смит сделал комментарии в программе новостей BBC "Панорама" во время эпизода, посвященного потенциальным опасностям искусственного интеллекта (ИИ) и гонке между США и Китаем за разработку этой технологии. Предупреждение поступило примерно через месяц после того, как Европейский Союз выпустил проект правил, пытающихся установить ограничения на использование ИИ. Подобных усилий мало в Соединенных Штатах, где законодательство в основном сосредоточено на ограничении регулирования и продвижении ИИ в целях национальной безопасности.

"Мне постоянно напоминают уроки Джорджа Оруэлла из его книги 1984", - сказал Смит. "Основная история была о правительстве, которое могло видеть все, что все делают, и слышать все, что все говорят, все время. Этого не произошло в 1984 году, но если мы не будем осторожны, это может произойти в 2024 году".

Искусственный интеллект - это неточный термин, но обычно он относится к машинам, которые могут обучаться или решать проблемы автоматически, без указания оператора-человека. Многие программы искусственного интеллекта сегодня полагаются на машинное обучение, набор вычислительных методов, используемых для распознавания закономерностей в больших объемах данных и последующего применения этих уроков к следующему раунду данных, теоретически становясь все более и более точным с каждым проходом.

Эксперты утверждают, что это чрезвычайно мощный подход, который применялся ко всему, от базовой математической теории до моделирования ранней Вселенной, но он может быть опасен в применении к социальным данным. Данные о людях изначально содержат предубеждения. Например, недавнее исследование, опубликованное в журнале JAMA Psychiatry, показало, что алгоритмы, предназначенные для прогнозирования риска самоубийства, работали намного хуже с чернокожими и американскими индейцами / коренными жителями Аляски, чем с белыми, частично потому, что в медицинской системе было меньше цветных пациентов, а частично потому что цветные пациенты с меньшей вероятностью получат лечение и поставят соответствующий диагноз в первую очередь, а это означает, что исходные данные были искажены.

"Предвзятость никогда нельзя полностью избежать, но с ней можно бороться", - сказал Бернхард Траут, профессор химической инженерии в Массачусетском технологическом институте, который ведет профессиональный курс по ИИ и этике. "Хорошая новость заключается в том, что снижение предвзятости является главным приоритетом как в академических кругах, так и в индустрии искусственного интеллекта. Люди в сообществе очень осведомлены об этой проблеме и пытаются ее решить", - сказал он.

С другой стороны, злоупотребление ИИ, возможно, более проблематично, сказал Траут. Как используется ИИ, это не просто техническая проблема; это в равной степени политический и моральный вопрос. И эти ценности сильно различаются от страны к стране.

"Распознавание лиц - чрезвычайно мощный инструмент, позволяющий делать хорошие вещи, но если вы хотите наблюдать за каждым на улице, если вы хотите видеть всех, кто появляется на демонстрации, вы можете заставить ИИ работать", - сказал Смит в интервью BBC. "И мы видим это в определенных частях мира".

Китай уже начал использовать технологию искусственного интеллекта как в повседневных, так и в тревожных целях. Например, распознавание лиц используется в некоторых городах вместо билетов в автобусах и поездах. Но это также означает, что правительство имеет доступ к обширным данным о передвижениях и взаимодействиях граждан, как сообщила BBC. Американская правозащитная группа IPVM, которая занимается этикой видеонаблюдения, нашла документы, предлагающие в Китае планы по разработке системы под названием "Один человек, один файл", которая будет собирать информацию о деятельности, отношениях и политических убеждениях каждого жителя в правительственном файле.

"Я не думаю, что Оруэлл когда-либо мог представить себе, что правительство способно на такой анализ", - сказал Конор Хили, директор IPVM.

В знаменитом романе Оруэлла 1984 описывается общество, в котором правительство наблюдает за гражданами через телеэкраны даже дома. Но Оруэлл не представлял себе возможностей, которые искусственный интеллект добавит слежке - в его романе персонажи находят способы избежать видеонаблюдения только для того, чтобы их выдавали сограждане. 

Возможное регулирование ИИ со стороны ЕС приведет к запрету систем, которые пытаются обойти свободу воли пользователей, или систем, которые позволяют правительству осуществлять любой вид "социальной оценки". Другие типы приложений считаются "высокорисковыми" и должны соответствовать требованиям прозрачности, безопасности и надзора, чтобы быть размещенными на рынке. К ним относятся такие вещи, как искусственный интеллект для критически важной инфраструктуры, правоохранительные органы, пограничный контроль и биометрическая идентификация, например системы идентификации по лицу или голосу. Другие системы, такие как чат-боты для обслуживания клиентов или видеоигры с искусственным интеллектом, считаются низкоопасными и не подлежат строгой проверке.

Напротив, интерес федерального правительства США к искусственному интеллекту в значительной степени сосредоточен на поощрении разработки ИИ для национальной безопасности и военных целей. Этот фокус иногда приводил к противоречиям. Например, в 2018 году Google закрыл свой проект Maven, контракт с Пентагоном, который автоматически анализировал видео, снятые военными самолетами и дронами. Компания утверждала, что цель заключалась только в том, чтобы пометить объекты для проверки человеком, но критики опасались, что эту технологию можно использовать для автоматического нацеливания на людей и места для ударов дронов. Информаторы в Google раскрыли этот проект, что в конечном итоге привело к настолько сильному общественному давлению, что компания отменила проект.

Тем не менее, Пентагон теперь тратит более 1 миллиарда долларов в год на контракты на ИИ, и применение машинного обучения в военной сфере и национальной безопасности неизбежно, учитывая энтузиазм Китая в достижении превосходства ИИ, сказал Траут.

"Вы не можете сделать слишком много, чтобы воспрепятствовать желанию иностранной страны развивать эти технологии", - сказал Траут. "И поэтому лучшее, что вы можете сделать, - это развить их самостоятельно, чтобы уметь понимать их и защищать себя, оставаясь при этом моральным лидером". 

Тем временем усилия по обузданию ИИ внутри страны предпринимаются правительствами штатов и местными властями. Крупнейший округ штата Вашингтон, округ Кинг, только что запретил правительству использовать программное обеспечение для распознавания лиц. Это первый округ в США, который сделал это, хотя город Сан-Франциско сделал то же самое в 2019 году, а затем несколько других городов. 

Уже были случаи, когда программное обеспечение для распознавания лиц приводило к ложным арестам. В июне 2020 года чернокожий мужчина в Детройте был арестован и содержался под стражей в течение 30 часов, потому что алгоритм ошибочно идентифицировал его как подозреваемого по делу о краже в магазине. Исследование, проведенное в 2019 году Национальным институтом стандартов и технологий, показало, что программное обеспечение выдает больше ложных совпадений для чернокожих и азиатских людей по сравнению с белыми, а это означает, что технология, вероятно, усугубит неравенство в полицейской деятельности для цветных.

"Если мы не примем сейчас законы, которые будут защищать общественность в будущем, мы обнаружим, что технологии стремительно развиваются, - сказал Смит, - и будет очень трудно наверстать упущенное".

Напомним, ранее сообщалось, что Билл Гейтс предупредил об опасности искусственнного интеллекта.

techno.bigmir.net

Хочешь узнать больше - читай отзывы

← Вернуться на предыдущую страницу

Читайте также:

На Київщині чоловік вистрілив зі знайденої на вулиці рушниці дружині в голову 28 ноября 2024

На Київщині чоловік вистрілив зі знайденої на вулиці рушниці дружині в голову. Подробиці справи та фото Стрільця затримали та повідомили йому про підозру

Могилевська показала результат експерименту з макіяжем. Фото 28 ноября 2024

Важко повірити, що за численні роки кар'єри співачка Наталія Могилевська не носила червону помаду. Але, за її словами, вона справді ніколи не обирає цей яскравий акцент, бо має для нього занадто яскравий характер.

36 000 графічних процесорів AMD створили найбільшу модель Всесвіту 28 ноября 2024

36 000 графічних процесорів AMD створили найбільшу модель Всесвіту

 

Вас могут заинтересовать эти отзывы

Braska 0.4
Braska

Отзывов: 1

Device Market (DM) 5.0
Device Market (DM)

Отзывов: 1

Каталог отзывов





×

Выберите область поиска

  • Авто
  • Одяг / аксесуари
  • Роботодавці
  • Інше