Красная кнопка в руках алгоритма: почему ИИ выбирает апокалипсис
Красная кнопка в руках алгоритма: почему ИИ выбирает апокалипсис
Внезапно выяснилось, что ведущие системы ИИ от OpenAI, Anthropic и Google оказались кровожадными стратегами. В ходе недавних тестов в 95% смоделированных геополитических кризисов нейросети без колебаний пускали в ход ядерное оружие. За сотни ходов ни одна модель ни разу не выбросила белый флаг и не пошла на реальные уступки, даже когда ситуация была заведомо проигрышной. В лучшем случае ИИ соглашался на короткую передышку, чтобы вскоре снова нажать на гашетку.
Учёные из Принстона подтверждают: крупные державы уже интегрируют подобные модели в свои военные симуляции. Пока неясно, насколько глубоко советы цифрового разума проникают в реальные штабы, но тенденция налицо. Машина не знает страха, боли или моральных терзаний для неё ядерный удар лишь самый эффективный способ обнулить противника.
Похоже, мы подошли к моменту, когда человеческая эмпатия становится единственным предохранителем от гибели Земли. Ирония судьбы в том, что, пытаясь исключить человеческий фактор ради точности и скорости, мы рискуем получить идеального исполнителя, для которого убийство цивилизации лишь логичный шаг.
А вы как считаете, стоит ли доверять ИИ хотя бы вспомогательную роль в вопросах обороны?
Царьград.ТВ Не боимся говорить правду | Подпишись