Microsoft, Google, OpenAI и другие крупные IT-компании заключили соглашение AI safety agreement о безопасности ИИ
Крупнейшие технологические компании собрались вместе, чтобы официально взять на себя обязательства по безопасному развитию искусственного интеллекта . На виртуальной глобальной встрече, организованной лидерами Южной Кореи и Великобритании, представители OpenAI, Microsoft, Google и других компаний обязались обеспечивать прозрачность и контроль в своей работе.
Шестнадцать компаний признали как огромные потенциальные преимущества ИИ, так и риски, если он будет использоваться не по назначению или причинить вред людям. Практические шаги были согласованы, включая публикацию рамок безопасности, отказ от моделей с неуправляемыми рисками и координацию действий с регулирующими органами на международном уровне. Цель состоит в том, чтобы обеспечить этичное поведение систем искусственного интеллекта и избежать любого непреднамеренного вреда по мере развития технологии.
К западным технологическим гигантам присоединились компании из Китая и Ближнего Востока, такие как Tencent, Meituan, Xiaomi и Samsung. Исследователи и инженеры будут оценивать системы на предмет предвзятости или других проблем, которые могут поставить группы в невыгодное положение. Все они намерены тщательно отслеживать свои модели ИИ и получать различные точки зрения на риски перед их развертыванием.
С другой стороны, политические лидеры США, ЕС, Австралии и других стран одобрили обещания и запланировали будущие встречи для поддержания прогресса. Хотя добровольные обязательства являются хорошим началом, политики полагают, что в дальнейшем потребуется некоторое регулирование .
Этот шаг особенно примечателен для OpenAI, которая в последние дни испытывает споры по поводу безопасности ИИ. Буквально на прошлой неделе он закрыл свою команду «сверхсогласования» , которая была сосредоточена на обеспечении безопасности ИИ.
Эта новость появилась после того, как из OpenAI покинули два важных человека — Илья Суцкевер и Ян Лейке . Лейке сказал на X, что уходит, потому что чувствует, что компания недостаточно серьезно относится к безопасности. Он сказал, что команда безопасности изо всех сил пыталась получить ресурсы, необходимые для выполнения своей работы.
Затем Сэм Альтман и Грег Брокман отреагировали на опасения Яна Лейке по поводу безопасности ИИ, заверив общественность, что компания привержена «тщательному тестированию, тщательному рассмотрению и мерам безопасности мирового уровня».