Человечеству необходимо объединиться для выявления потенциальных угроз со стороны ИИ
Московское время:
6 февраля 2024
00:27

Человечеству необходимо объединиться для выявления потенциальных угроз со стороны ИИ

Эксперты со всего мира, осознавая возможное чрезмерное развитие ИИ, угрожающее безопасности и благополучию человека в больших масштабах, заявляют о необходимости объединиться для создания международных институтов и правил, регулирующих этот процесс. В преддверии первого Международного саммита по безопасности ИИ, который состоялся в Лондоне 1 и 2 ноября 2023 года, специалисты подписали открытое письмо с призывом разработать и ратифицировать международный договор о безопасности ИИ, который бы получил во всем международном сообществе широкое одобрение, а также создать в ходе Саммита специальную рабочую группу.

Возглавил инициативу британский прогнозист Толга Билге, а в числе тех, кто поставил под обращением подпись, были обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, известный когнитивист Гари Маркус, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна и многие другие.

Специалисты предлагают включить в международный договор такие компоненты, как всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ, «ЦЕРН» по безопасности ИИ – всеобъемлющее совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ, комиссию по соблюдению договора, отвечающую за мониторинг соблюдения договора, роль которой аналогична роли Международного агентства по атомной энергии (МАГАТЭ).

Международный договор по безопасности ИИ создается с целью предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта для сокращения катастрофических рисков, которые системы искусственного интеллекта представляют для человечества. Также договор необходим для обеспечения доступа к благам ИИ для всех людей.

«Обеспечение того, чтобы ИИ был безопасным и приносил пользу всем, является не только технической, но и геополитической проблемой. Нам нужно, чтобы великие державы мира, включая США и Китай, отложили в сторону свои разногласия ради человечества и конструктивно работали над созданием надежного набора международных правил, направленных на сосредоточение внимания на этих проблемах», – считает Толга Бильге.

Вернуться назад