Американські розробники ШІ провели секретні переговори з Китаєм про небезпеку нових технологій

15 января 2024

Американские компании OpenAI, Anthropic и Cohere, работающие в сфере искусственного интеллекта, ведут секретные переговоры с китайскими экспертами по безопасности в этой области. Это происходит на фоне всеобщей обеспокоенности относительно того, что ИИ-алгоритмы могут использоваться для распространения дезинформации и угрожать социальной сплочённости общества. Об этом пишет Financial Times со ссылкой на собственные осведомлённые источники.

Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

В сообщении сказано, что в июле и октябре прошлого года в Женеве прошли встречи с участием североамериканских экспертов и учёных, специализирующихся на политической составляющей в сере ИИ-разработок, а также представителей Университета Цинхуа и ряда других учреждений, поддерживаемых правительством Поднебесной. Осведомлённый источник рассказал, что в рамках этих встреч сторонам удалось обсудить риски, связанные с новыми технологиями, а также стимулировать инвестиции в исследования в области безопасности в сфере ИИ. Отмечается, что основной целью этих встреч был поиск безопасного пути для разработки более сложных ИИ-технологий.

«У нас нет возможности устанавливать международные стандарты безопасности и согласовывать ИИ-разработки без достижения договоренности между участниками этой группы. Если они согласятся, будет проще привлечь остальных», — сообщил осведомлённый источник.   

Издание отмечает, что эти не афишированные переговоры являются редким признаком китайско-американского сотрудничества на фоне гонки за превосходство между двумя державами в области передовых технологий, таких как искусственный интеллект и квантовые вычисления. Что касается самих переговоров, то их организовала консалтинговая компания Shaikh Group и их проведении было известно в Белом Доме, а также правительствах Великобритании и Китая.

«Мы увидели возможность объединить ключевых игроков из США и Китая, работающих в сфере искусственного интеллекта. Нашей главной целью было подчеркнуть уязвимости, риски и возможности, связанные с широким внедрением ИИ-моделей, которые используются во всём мире. Признание этих фактов, на наш взгляд, может стать основой для совместной научной работы, что в конечном счёте приведёт к разработке глобальных стандартов безопасности для ИИ-моделей», — прокомментировал данный вопрос Салман Шейх (Salman Shaikh), исполнительный директор Shaikh Group.

Участники переговоров обсудили возможности в плане технического сотрудничества сторон, а также более конкретные политические предложения, которые легли в основу дискуссий во время заседания Совета Безопасности ООН по ИИ в июле 2023 года и британского ИИ-саммита в ноябре 2023 года. По словам источников, успех прошедших встреч позволил разработать план дальнейших переговоров, в рамках которых будут изучаться конкретные научно-технические предложения, направленные на то, чтобы привести сферу ИИ в соответствие с правовыми кодексами, а также нормами и ценностями каждого общества.

3dnews

Хочешь узнать больше - читай отзывы

← Вернуться на предыдущую страницу

Читайте также:

Стало відомо, чим небезпечні літні перепади погоди та як їх пережити без шкоди здоров'ю 17 августа 2025

Чим небезпечні літні перепади погоди та як їх пережити без шкоди здоров'ю

В Україні запрацювала єдина цифрова система оцінювання повсякденного функціонування людей 17 августа 2025

Міністерство охорони здоров’я України повністю оновило підхід до оцінювання повсякденного функціонування людини, замінивши роботу медико-соціальних...

В Україні зафіксували другий випадок нового субваріанту Омікрон «Nimbus» 17 августа 2025

Другий випадок нового субваріанту коронавірусу Омікрон «Nimbus» (NВ.1.8.1) виявили на Одещині, перший був зафіксований на Вінниччині. Його ідентифікували завдяки...

 

Вас могут заинтересовать эти отзывы

Alf 0.1
Alf

Отзывов: 1

Каталог отзывов





×

Выберите область поиска

  • Авто
  • Одяг / аксесуари
  • Роботодавці
  • Інше