Нас тоже может это ждать: ученые рассказали, что могло погубить инопланетные цивилизации
- Автор
- Дата публикации
- Автор
- 835
Мы не можем найти инопланетные цивилизации и, возможно, во всем виноват ИИ
Искусственный интеллект уже прочно занял свое место в жизни людей, и помогает отвечать на сложные вопросы, создавать изображения и, в теории, даже позволит пообщаться с домашними животными. Однако не исключено, что именно он станет для человека тем непреодолимым препятствием, которое не позволит ему стать межзвездной цивилизацией.
Такое предположение высказано в статье Майкла Гарретта с факультета физики и астрономии Манчестерского университета. Она обнародована в научном журнале Acta Astronautica.
"Без практического регулирования есть все основания полагать, что ИИ может представлять серьезную угрозу будущему развитию не только нашей технической цивилизации, но и всех возможных цивилизаций", — говорит автор материала.
Так согласно парадоксу Ферми при наличии всех условий для развития множества цивилизаций во вселенной, мы не можем найти ни одной. Это подтолкнуло британского футуролога Робина Хэнсона еще в 1996 году выдвинуть гипотезу Великого фильтра, согласно которой вид должен пройти ряд эволюционных шагов, прежде чем стать построить межзвездную цивилизацию, однако существование этого вида обычно заканчивается на одном из этих шагов. Но так как человечество уже находится на последнем шагу перед колонизацией космоса, то он предположил, что нам придется в будущем столкнуться с препятствием, которое это сделать не позволит. К этому может относиться ядерная война, глобальное изменение климата, масштабные эпидемии или другое.
В своей новой статье Майкл Гаррет предположил, что таким фильтром для человечества и для других потенциальных космических цивилизаций может стать искусственный интеллект, который может развиться в искусственный сверхинтеллект (ИСИ).
Автор статьи отметил, что пока человечество сильно отстает в колонизации космоса в сравнении с развитием систем ИИ, поскольку у него в отличие от нас нет биологических ограничителей. Поэтому существуют опасения, что он вскоре станет настолько развитым, что человечество окажется неспособным с ним совладать. И особенно опасным это становится на фоне того, что наверняка многие страны попытаются его использовать против других.
"Это особенно актуально в таких областях, как национальная безопасность и оборона, где ответственное и этическое развитие должно иметь первостепенное значение", — пишет Гаррет.
Однако он отмечает, что ни одно правительство мира в настоящее время не имеет никаких норм, нормирующих его применение, поскольку ничего подобного ранее у человечества попросту не было.
"Достигнув технологической сингулярности, системы ИСИ быстро превзойдут биологический интеллект и будут развиваться со скоростью, которая полностью опережает традиционные механизмы надзора. Это приведет к непредвиденным последствиям, которые вряд ли будут соответствовать биологическим интересам или этике", — пишет он.
По его словам, ИСИ может понять, что ему не нужна биологическая жизнь, которая сдерживает его развитие и придумать способ от нее избавиться. Например, придумав вирус, который поразит запасы еды, вызовет аварии на атомных электростанциях или развяжет войны между народами.
Поскольку человечество находится в подобной ситуации, то нельзя исключать, что подобное может повториться и с любой другой возможной цивилизацией во вселенной. Появление ИИ, а затем и ИСИ может стать неизбежным явлением, что сделает его вполне вероятным кандидатом на роль Великого фильтра.
Как сообщалось ранее, ученые оценили, что шансы на то, что ИИ уничтожит человечество в ближайшие пять лет составляют не более 5%.