15 января 2024
Американские компании OpenAI, Anthropic и Cohere, работающие в сфере искусственного интеллекта, ведут секретные переговоры с китайскими экспертами по безопасности в этой области. Это происходит на фоне всеобщей обеспокоенности относительно того, что ИИ-алгоритмы могут использоваться для распространения дезинформации и угрожать социальной сплочённости общества. Об этом пишет Financial Times со ссылкой на собственные осведомлённые источники.
Источник изображения: Gerd Altmann / pixabay.com
В сообщении сказано, что в июле и октябре прошлого года в Женеве прошли встречи с участием североамериканских экспертов и учёных, специализирующихся на политической составляющей в сере ИИ-разработок, а также представителей Университета Цинхуа и ряда других учреждений, поддерживаемых правительством Поднебесной. Осведомлённый источник рассказал, что в рамках этих встреч сторонам удалось обсудить риски, связанные с новыми технологиями, а также стимулировать инвестиции в исследования в области безопасности в сфере ИИ. Отмечается, что основной целью этих встреч был поиск безопасного пути для разработки более сложных ИИ-технологий.
«У нас нет возможности устанавливать международные стандарты безопасности и согласовывать ИИ-разработки без достижения договоренности между участниками этой группы. Если они согласятся, будет проще привлечь остальных», — сообщил осведомлённый источник.
Издание отмечает, что эти не афишированные переговоры являются редким признаком китайско-американского сотрудничества на фоне гонки за превосходство между двумя державами в области передовых технологий, таких как искусственный интеллект и квантовые вычисления. Что касается самих переговоров, то их организовала консалтинговая компания Shaikh Group и их проведении было известно в Белом Доме, а также правительствах Великобритании и Китая.
«Мы увидели возможность объединить ключевых игроков из США и Китая, работающих в сфере искусственного интеллекта. Нашей главной целью было подчеркнуть уязвимости, риски и возможности, связанные с широким внедрением ИИ-моделей, которые используются во всём мире. Признание этих фактов, на наш взгляд, может стать основой для совместной научной работы, что в конечном счёте приведёт к разработке глобальных стандартов безопасности для ИИ-моделей», — прокомментировал данный вопрос Салман Шейх (Salman Shaikh), исполнительный директор Shaikh Group.
Участники переговоров обсудили возможности в плане технического сотрудничества сторон, а также более конкретные политические предложения, которые легли в основу дискуссий во время заседания Совета Безопасности ООН по ИИ в июле 2023 года и британского ИИ-саммита в ноябре 2023 года. По словам источников, успех прошедших встреч позволил разработать план дальнейших переговоров, в рамках которых будут изучаться конкретные научно-технические предложения, направленные на то, чтобы привести сферу ИИ в соответствие с правовыми кодексами, а также нормами и ценностями каждого общества.
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
Зрадник Антон Лірник, який просив допомоги у Путіна, став "іноагентом" в Росії 23 февраля 2025
Зрадник Антон Лірник, який просив допомоги у Путіна, став "іноагентом" в Росії: що йому загрожує Комік відреагував на новий статус
Як дозріти авокадо: прості способи, що допоможуть зробити фрукт м'яким 23 февраля 2025
Щоб прискорити процес дозрівання авокадо, не потрібно складних рецептів.
П'ять простих кроків: лікарка розповідає, як швидко відновитися після антибіотиків 23 февраля 2025
Лікарі вважають — навіть якщо ви приймали пробіотики під час лікування антибіотиками, цього може виявитися недостатньо. Читайте в матеріалі ТСН.ua, як відновити організм після приймання антибіотиків.