Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wordpress-seo domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/i/infowe7c/citycelebrity.ru/public_html/wp-includes/functions.php on line 6114 Notice: Функция _load_textdomain_just_in_time вызвана неправильно. Загрузка перевода для домена reboot была запущена слишком рано. Обычно это индикатор того, что какой-то код в плагине или теме запускается слишком рано. Переводы должны загружаться при выполнении действия init или позже. Дополнительную информацию можно найти на странице «Отладка в WordPress». (Это сообщение было добавлено в версии 6.7.0.) in /home/i/infowe7c/citycelebrity.ru/public_html/wp-includes/functions.php on line 6114 Warning: Cannot modify header information - headers already sent by (output started at /home/i/infowe7c/citycelebrity.ru/public_html/wp-includes/functions.php:6114) in /home/i/infowe7c/citycelebrity.ru/public_html/wp-content/plugins/clearfy-pro/clearfy-pro.php on line 1690 Warning: Cannot modify header information - headers already sent by (output started at /home/i/infowe7c/citycelebrity.ru/public_html/wp-includes/functions.php:6114) in /home/i/infowe7c/citycelebrity.ru/public_html/wp-content/plugins/clearfy-pro/clearfy-pro.php on line 1691 Международный договор о безопасности ИИ должен снизить катастрофические риски для человечества - Сitycelebrity

Международный договор о безопасности ИИ должен снизить катастрофические риски для человечества

Международный договор о безопасности ИИ должен снизить катастрофические риски для человечества
Фото из открытых источников
Накануне первого мирового саммита, посвященного безопасности ИИ, эксперты, в том числе ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, подписали открытое письмо. В нем содержится призыв к «разработке и ратификации договора о безопасности ИИ, который получит широкое одобрение во всем международном сообществе, созданию рабочей группы на Саммите по безопасности ИИ в Великобритании при широкой международной поддержке для разработки плана для этого».
 
Такой международный договор о безопасности ИИ должен включать несколько основных компонентов, в том числе:
 
● Всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ.
 
● “ЦЕРН” по безопасности ИИ: масштабное совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ.
 
● Комиссию по соблюдению договора: она должна отвечать за мониторинг соблюдения договора, ее роль должна быть аналогична роли Международного агентства по атомной энергии (МАГАТЭ).
 
Целями такого договора являются:
 
● Снижение катастрофических рисков, которые системы искусственного интеллекта представляют для человечества, путем предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта.
 
● Обеспечение доступа к благам ИИ для всех людей.
 
Эта коалиция научных экспертов, лидеров бизнеса и государственного управления примечательна тем, что находится в авангарде международного регулирования ИИ: некоторые из подписавшихся лиц входят в Консультативный орган высокого уровня ООН по ИИ или входят в число немногих избранных экспертов, приглашенных на Международный саммит по безопасности ИИ, который состоялся в Лондоне 1 и 2 ноября 2023 года.
 
Китайский учёный Йи Цзэн заявил: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться». Йи Цзэн добавил: «Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».
 
Инициативу открытого письма возглавил британский прогнозист Толга Билге.

Источник
Оцените статью
Сitycelebrity