Жар-птица | выездные банкеты

Главная Новости

Это находится на уровне смертельной пандемии и ядерной войны

Опубликовано: 26.10.2023

Премьер-министр Великобритании Риши Сунак предупреждает об угрозе, которую представляет для человечества искусственный интеллект. Его начало можно сравнить с промышленной революцией или появлением Интернета, но, по мнению Сунака, мировые лидеры должны сделать снижение рисков своим приоритетом. Искусственный интеллект может представлять для человечества такую ​​же опасность, как пандемия или ядерная война.

Великобритания создаст первый в мире институт безопасности искусственного интеллекта, заявил в четверг премьер-министр Риши Сунак. На следующей неделе он планирует встречу с представителями компаний, занимающихся разработкой искусственного интеллекта, мировыми политиками и экспертами, основной темой которой станет обсуждение рисков безопасности этой технологии.

Хотя искусственный интеллект (ИИ) принесет людям огромную пользу и его начало можно сравнить с промышленной революцией, развитием электричества или Интернета, он также несет в себе новые угрозы. По мнению Сунака и других экспертов, ИИ реально может стать причиной вымирания человечества.

"Снижение риска вымирания из-за искусственного интеллекта должно быть глобальным приоритетом наряду с другими общесоциальными рисками, такими как пандемии и ядерная война","сказал он в своей речи, стенограмма которой был опубликован британским правительством на своей веб-сайты.

​"В случае неудачи ИИ может способствовать производству химического или биологического оружия. Террористические группы могут использовать ИИ для распространения страха и разрушения в ещё больших масштабах","добавил он. Ожидается, что искусственный интеллект приведет к огромным достижениям в медицине, но он также, вероятно, проложит путь к более быстрым, эффективным и масштабным кибератакам.

О британском плане Сунака по созданию глобальной группы по борьбе с рисками ИИ, политический журнал Политика сообщили несколько недель назад. Предполагается, что это орган, который будет помогать правительствам оценивать риски национальной безопасности, связанные с передовыми технологиями.

Стремительное развитие искусственного интеллекта вызывает беспокойство не только у обывателей, но и у экспертов во всем мире. Несколько месяцев назад сотни из них даже подписали призыв к компаниям приостановить разработку ИИ, поскольку она наступает слишком рано. Среди подписавших — самые важные личности технологического мира, такие как Илон Маск или соучредитель Ape Стив Возняк.

Подробнее о рисках ИИ и опасениях экспертов можно узнать из отчета (30.03.2023):

TN.cz