Американські розробники ШІ провели секретні переговори з Китаєм про небезпеку нових технологій

15 января 2024

Американские компании OpenAI, Anthropic и Cohere, работающие в сфере искусственного интеллекта, ведут секретные переговоры с китайскими экспертами по безопасности в этой области. Это происходит на фоне всеобщей обеспокоенности относительно того, что ИИ-алгоритмы могут использоваться для распространения дезинформации и угрожать социальной сплочённости общества. Об этом пишет Financial Times со ссылкой на собственные осведомлённые источники.

Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

В сообщении сказано, что в июле и октябре прошлого года в Женеве прошли встречи с участием североамериканских экспертов и учёных, специализирующихся на политической составляющей в сере ИИ-разработок, а также представителей Университета Цинхуа и ряда других учреждений, поддерживаемых правительством Поднебесной. Осведомлённый источник рассказал, что в рамках этих встреч сторонам удалось обсудить риски, связанные с новыми технологиями, а также стимулировать инвестиции в исследования в области безопасности в сфере ИИ. Отмечается, что основной целью этих встреч был поиск безопасного пути для разработки более сложных ИИ-технологий.

«У нас нет возможности устанавливать международные стандарты безопасности и согласовывать ИИ-разработки без достижения договоренности между участниками этой группы. Если они согласятся, будет проще привлечь остальных», — сообщил осведомлённый источник.   

Издание отмечает, что эти не афишированные переговоры являются редким признаком китайско-американского сотрудничества на фоне гонки за превосходство между двумя державами в области передовых технологий, таких как искусственный интеллект и квантовые вычисления. Что касается самих переговоров, то их организовала консалтинговая компания Shaikh Group и их проведении было известно в Белом Доме, а также правительствах Великобритании и Китая.

«Мы увидели возможность объединить ключевых игроков из США и Китая, работающих в сфере искусственного интеллекта. Нашей главной целью было подчеркнуть уязвимости, риски и возможности, связанные с широким внедрением ИИ-моделей, которые используются во всём мире. Признание этих фактов, на наш взгляд, может стать основой для совместной научной работы, что в конечном счёте приведёт к разработке глобальных стандартов безопасности для ИИ-моделей», — прокомментировал данный вопрос Салман Шейх (Salman Shaikh), исполнительный директор Shaikh Group.

Участники переговоров обсудили возможности в плане технического сотрудничества сторон, а также более конкретные политические предложения, которые легли в основу дискуссий во время заседания Совета Безопасности ООН по ИИ в июле 2023 года и британского ИИ-саммита в ноябре 2023 года. По словам источников, успех прошедших встреч позволил разработать план дальнейших переговоров, в рамках которых будут изучаться конкретные научно-технические предложения, направленные на то, чтобы привести сферу ИИ в соответствие с правовыми кодексами, а также нормами и ценностями каждого общества.

3dnews

Хочешь узнать больше - читай отзывы

← Вернуться на предыдущую страницу

Читайте также:

З антен для "шахедів" майже зникли американські компоненти - ЗМІ 8 апреля 2025

Нові CRP-антени для дрона Гєрань-2 мають тільки два чіпи американського виробництва, зазначають розвідники.

Українським біженцям загрожує втрата правового статусу в ЄС - ЗМІ 8 апреля 2025

Українці, що втекли від війни в країни Євросоюзу, опиняться в патовій ситуації після оголошення перемир'я.

Франція визнала допомогу Україні своїм пріоритетом 8 апреля 2025

Країна переорієнтовує свої стратегічні орієнтири на розвиток міжнародного партнерства, яке відповідає її цінностям, та допомогу тим, хто найбільше її потребує.

 

Вас могут заинтересовать эти отзывы

Володимир 0.1
Володимир

Отзывов: 1

Viasat 0.1
Viasat

Отзывов: 1

Каталог отзывов





×

Выберите область поиска

  • Авто
  • Одяг / аксесуари
  • Роботодавці
  • Інше