Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wordpress-seo domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/i/infowe7c/citycelebrity.ru/public_html/wp-includes/functions.php on line 6114 Notice: Функция _load_textdomain_just_in_time вызвана неправильно. Загрузка перевода для домена reboot была запущена слишком рано. Обычно это индикатор того, что какой-то код в плагине или теме запускается слишком рано. Переводы должны загружаться при выполнении действия init или позже. Дополнительную информацию можно найти на странице «Отладка в WordPress». (Это сообщение было добавлено в версии 6.7.0.) in /home/i/infowe7c/citycelebrity.ru/public_html/wp-includes/functions.php on line 6114 Warning: Cannot modify header information - headers already sent by (output started at /home/i/infowe7c/citycelebrity.ru/public_html/wp-includes/functions.php:6114) in /home/i/infowe7c/citycelebrity.ru/public_html/wp-content/plugins/clearfy-pro/clearfy-pro.php on line 1690 Warning: Cannot modify header information - headers already sent by (output started at /home/i/infowe7c/citycelebrity.ru/public_html/wp-includes/functions.php:6114) in /home/i/infowe7c/citycelebrity.ru/public_html/wp-content/plugins/clearfy-pro/clearfy-pro.php on line 1691 Ученый объяснил, может ли ИИ уничтожить человечество - Сitycelebrity

Ученый объяснил, может ли ИИ уничтожить человечество

Ученый объяснил, может ли ИИ уничтожить человечествоЯдерный взрыв / фото: pixabay.com
Возможно человечество подписало себе смертный приговор. Стюарт Рассел из Калифорнийского университета рассказал об опасности искусственного интеллекта. Захватят ли машины мир и повторит ли планета судьбу “Матрицы”?
Об этом сообщает The Times.

Искусственный интеллект (ИИ) – это настоящий прорыв в IT-иехнологиях. С его помощью можно в десятки раз быстрее делать сложные действия: создавать микрочипы, решать задачи по разным наукам. Однако хорошо ли это на самом деле?
Стюарт Рассел говорит, что главная опасность ИИ заключается в том, что человек не может контролировать его полностью.
Ученый из США взволнован не на шутку. Своими переживаниями он уже поделился. Стюарта волнует тот факт, что нейросеть ChatGPT в любой момент может интегрироваться в сверхразумную машину. Новый объект может оказаться опасным для человечества, ведь люди не смогут его контролировать.
Например, люди обратятся к ИИ, чтобы он помог решить проблему глобального потепления. А нейросеть может “подумать”, что для этого надо истребить людей.
Стюарт Рассел выразил разочарование политиками, которые не выступают за строгое регулирование искусственного интеллекта. Несмотря на те опасности, которые эта технология может представлять в будущем. Он присоединился к Илону Маску и Стиву Возняку, чтобы высказать свое мнение в открытом письме о том, чтобы остановить развитие ИИ и сначала научиться контролировать его.
Стюарт Рассел является профессором информатики в Калифорнийском университете в Беркли и членом колледжа Уодхэм в Оксфорде. Он участвовал в работе ООН по созданию новой системы контроля за выполнением Договора о запрете ядерных испытаний и является соавтором широко известного университетского учебника по искусственному интеллекту.
Многие европейские политики выступают за проведение экстренного глобального саммита в связи с ростом развития ИИ, в то время как Китай уже запрещает крупные языковые модели. Белый дом созвал экстренное совещание для всех руководителей технологической отрасли. Стюарт Рассел задает риторический вопрос, каковы будут последствия, если мы столкнемся с инопланетной цивилизацией.

Источник
Оцените статью
Сitycelebrity