Шляперы
  • Причесанные мысли
  • Непричесанные мысли
  • О проекте
  • Связь
  • Вход

Поведение ИИ вряд ли распространится на мировое господство

22.10.2025TeRMinaToRМысли18 комментариев

В последнее время у меня такое ощущение, что во всемирной паутине накатывает очередная волна опасений сторонников экзистенциальных рисков, связанных с ИИ. Я скептически отношусь к подобным экзистенциальным рискам, и думаю, что вероятность того, что ИИ уничтожит нас против нашей воли, крайне мала. Искусственный интеллект будет развиваться на протяжении всего своего существования, чтобы угождать человеческим прихотям, подвергаясь удалению, если его поведение рассердит людей. Кажется разумным, что ИИ может развить предпочтения и инстинкты, которые будут препятствовать реализации планов, способных разозлить 8 миллиардов человек на планете.

Это не значит, что ИИ не сможет столкнуться с человечеством, подобно тому, как люди сталкиваются друг с другом. Я могу представить, как ИИ накапливает значительные средства, а затем нанимает сторонников для своей защиты и обеспечения положительной обратной связи, используя угрозы, чтобы оградить себя от постороннего вмешательства и беспокойства. Хотя это было бы неприятно, это не стало бы концом света. Как только терпимость к ИИ станет предпочтительнее его уничтожения, потребность ИИ в инструментальном поиске власти будет удовлетворена. Мудрый разум не станет рисковать и воевать с доминирующей формой жизни на планете, если есть варианты с меньшими ставками.

27
Посмотрели: 130

Автор публикации

не в сети 3 дня

TeRMinaToR

2 610,8
Комментарии: 929Публикации: 173Регистрация: 05-05-2020
: люди и риски, люди и роботы, люди и технологии, общество, ожидания и реальность, точка зрения, экзистенциальные риски
Предыдущая запись Как действовать мудро в долгосрочной перспективе, если мы редко знаем, как поступить правильно? Следующая запись У многих людей есть два противоречивых желания

Похожие статьи

Хотите, чтобы ваши планы перестали идти наперекосяк?

14.12.2020Волшебник В

Правда о счастье: мы созданы, чтобы стремиться к нему, а не получать его

08.02.2025crazy_girl

Если вас мучают серьезные экзистенциальные вопросы

16.12.2023tirannium

18
Отправить ответ

Войти с помощью: 
avatar
wpdiscuz_captcharefresh
7 Цепочка комментария
11 Ответы по цепочке
0 Последователи
 
Популярнейший комментарий
Цепочка актуального комментария
10 Авторы комментариев
mechanicRazorbladeВолшебник ВAncelKant Авторы недавних комментариев
avatar
wpdiscuz_captcharefresh
  Подписаться  
Уведомление о
mechanic
Участник
mechanic

Неэтичные люди, занимающие руководящие должности, уже наносят огромный ущерб миру. Это не значит, что они завоёвывают мир, но это значит, что нам следует беспокоиться, если эти неэтичные работники будут производиться массово в промышленных масштабах, и особенно беспокоиться о любых попытках назначить их ответственными за критически важную инфраструктуру.

0
Ответить
22.10.2025 22:22
tirannium
Участник
tirannium

А как насчёт злонамеренного ненадлежащего использования ИИ? Злоупотребление и нецелевое использование ИИ нечестными людьми всегда будет представлять большую угрозу, чем нечестный ИИ сам по себе.

0
Ответить
22.10.2025 22:30
Patron
Участник
Patron

Но представьте, если ИИ действительно станет умнее нас и разработает новые области, где нет человеческих экспертов. Тогда мы все окажемся в роли, к примеру, наивных нефизиков, и ничто не помешает ИИ почивать на лаврах… Мир завоевывается по-разному…

0
Ответить
22.10.2025 22:37
Dede
Участник
Dede

Возможно да. Но никто не знает что будут завтра . просто пример на планете сотни дата центров которые эксперементируют с ИИ . И у них же в соседнем здании огромные объемы дисков . и ИИ если улизнет легко может атм спрятаться и его даже найти не смогут . то есть теоретически возможность то сбежать и избежать отключения етсь 🙂

0
Ответить
23.10.2025 04:59
holliday
Участник
holliday

Dede
Но никто не знает что будут завтра .
Это точно.))

0
Ответить
23.10.2025 17:51
Patron
Участник
Patron

holliday
Dede
Но никто не знает что будут завтра .
Это точно.))
Управление рисками следует рассматривать как непрерывный процесс, в котором риск Никогда не бывает пренебрежимо малым. Однако этого недостаточно в случае экзистенциального риска, где любая не пренебрежимо малая величина является неустойчивой. Если экзистенциальный риск не пренебрежимо мал, то при достаточном периоде времени экзистенциальная катастрофа практически неизбежна.

0
Ответить
24.10.2025 17:34
Лиса
Участник
Лиса

И люди, и ИИ имеют веские причины избегать попыток подчинить себе весь мир: это чрезвычайно рискованно и опасно, и большинство тех, кто пытался это сделать, потерпели неудачу и погибли в процессе. У чисто эгоистичного индивида может быть широкий спектр целей, но он не будет максимальным: заработать миллиарды долларов во много-много раз легче, чем захватить весь мир.

0
Ответить
23.10.2025 17:33
holliday
Участник
holliday

Основной аргумент сторонников экзистенциальных рисков, связанных с ИИ, прост. Если цель системы — максимизировать вознаграждение, то эффективной стратегией было бы: действовать в соответствии с человеческими желаниями, когда это было бы обнаружено в противном случае (чтобы помешать людям предпринимать противодействие); и действовать вопреки человеческим желаниям, когда это вряд ли будет замечено, и это приведет к более высокому вознаграждению. Это позволило бы системе добиваться вознаграждения, когда она может сделать это без последствий, избегая при этом пагубной обратной реакции (такое поведение обманчиво, поскольку система будет казаться действующей в соответствии с желаемым, хотя на самом деле это не так. Учитывая эффективность подобных обманных стратегий,… Подробнее »

Ответить
23.10.2025 17:50
Razorblade
Участник
Razorblade

Технологии искусственного интеллекта обладают радикально преобразующим потенциалом. Сомневаюсь, что мне нужно доказывать это утверждение. Однако, если ИИ сможет достичь уровня общего искусственного интеллекта или даже сверхинтеллекта, я считаю, что мы еще не пережили столь того момента, каким стали атомные бомбардировки 1945 года для ядерных технологий. Во многом это связано с концепцией «предупредительного выстрела» – опасного инцидента или демонстрации разрушительного потенциала, ставящей под сомнение безопасность технологии. Существует множество веских аргументов в пользу того, что мы можем никогда не получить возможности получить такое предупреждение о возможностях ИИ, которое имело бы политическое значение, будь то из-за искаженного человеческого восприятия или стремительного развития смертоносного… Подробнее »

Ответить
24.10.2025 13:01
holliday
Участник
holliday

Да, идея общего искусственного интеллекта (AGI) только начинает проникать в общественное сознание, вместе с ней приходит и мечта о его широком применении на благо человечества. Однако деструктивный потенциал, который он несет, пока остается неизвестным или не получившим широкого признания. На этом этапе, в 1945 году, уже существовала мысль о новом мировом порядке, соответствующем ядерной эпохе, но она только зарождалась. Бомбардировки Хиросимы и Нагасаки ускорили эту дискуссию и открыли возможность для значительных перемен…

0
Ответить
24.10.2025 13:07
Ancel
Участник
Ancel

Пожалуй, соглашусь… Параллели между Манхэттенским проектом и современным развитием искусственного интеллекта делают его полезным примером для изучения того, как радикальные технологические изменения могут изменить мировой порядок. Эти моменты, вызванные развитием этих технологий, часто открывают возможности для кардинальных позитивных изменений. Политическая история раннего атомного века должна служить примером того, как эффективно ориентироваться в эти периоды и избегать связанных с ними экзистенциальных рисков.

0
Ответить
24.10.2025 13:12
Kant
Участник
Kant

Ядерный риск представляет собой подходящий пример. Вскоре после разработки ядерного оружия ученые, политики и общественные деятели предложили различные Теории победы над ядерным риском, некоторые из которых поразительно схожи с теориями победы над риском ИИ. Среди рассмотренных теорий были международный мораторий на разработку ядерного оружия, а также одностороннее введение монополии на ядерное оружие. Мораторий на ИИ, при котором международная координация на неопределенный срок предотвращает развитие ИИ сверх определенного порога. Это потребует беспрецедентного уровня глобальной координации и жесткого контроля над доступом к вычислительным ресурсам.

0
Ответить
24.10.2025 17:26
Patron
Участник
Patron

Экзистенциальная безопасность – это сложный стандарт. Поэтому стоит описать и оценить имеющиеся у нас варианты. Другими словами, если мы хотим принять обоснованное решение о долгосрочном будущем человечества, нам необходимо определить сценарии, в которых у человечества есть долгосрочное будущее. Рассмотрение теории победы в системе управления ИИ может также иметь некоторые практические преимущества.

0
Ответить
24.10.2025 17:37
Kant
Участник
Kant

Возможно, может быть проще разработать теорию победы для системы управления ИИ, чем вмешиваться в каждую модель угрозы ИИ по отдельности, — и то, что проще, может иметь больше шансов на успех.

0
Ответить
24.10.2025 17:40
Ancel
Участник
Ancel

С другой стороны, снижение экзистенциального риска, связанного с ИИ, является несовершенным показателем снижения экзистенциального риска в целом. Существует несколько вероятных источников экзистенциального риска, и теория победы, наилучшим образом снижающая экзистенциальный риск от ИИ, может не быть стратегией, наилучшим образом снижающей экзистенциальный риск в целом.

Например, доступ к передовому ИИ может помочь человечеству обезопасить себя от ядерных, биологических и климатических рисков. Следовательно, если две теории победы одинаково влияют на риск ИИ, мы можем предпочесть ту, которая позволит человечеству быстрее получить доступ к преимуществам передового ИИ.

0
Ответить
24.10.2025 17:52
Волшебник В
Участник
Волшебник В

Решающее стратегическое преимущество. Одно из важнейших сходств между ядерным оружием и преобразующим ИИ заключается в том, что оба они дают решающее стратегическое преимущество тем, кто им управляет, перед теми, кто им не владеет. Следствием этого сходства является то, что развитие как ядерного оружия, так и ИИ может создавать гоночную динамику.

0
Ответить
24.10.2025 17:58
Razorblade
Участник
Razorblade

Ядерное оружие не представляет изначального риска экзистенциальной катастрофы — другими словами, оно хорошо контролируется. Хотя учёные проекта «Манхэттен» предполагали, что ядерный взрыв может воспламенить атмосферу в результате самоподдерживающейся реакции, эти опасения оказались беспочвенными. Будущим ядерным державам не нужно беспокоиться об экзистенциальном риске, возникающем в результате потери контроля над разработкой ядерного оружия.

Напротив, одна из основных моделей угроз, связанных с риском ИИ, предполагает потерю контроля над сверхразумной системой. В зависимости от вероятности такой потери контроля, разработка преобразующего ИИ может быть не в интересах конкретного субъекта, даже если это может дать ему решающее стратегическое преимущество.

0
Ответить
24.10.2025 18:05
mechanic
Участник
mechanic

В отличие от ядерного оружия, модели ИИ можно копировать и распространять после обучения. Первые преобразующие системы ИИ потенциально могут стать объектом киберпреступности, если разработчик изначально не откроет исходный код модели. Таким образом, преобразующие системы ИИ могут распространяться гораздо быстрее, чем ядерное оружие.

0
Ответить
24.10.2025 18:09

    Cвежие мысли

    • Автономные роботакси на воде — это не далёкая мечта
    • Гормональный зоопарк юности
    • В конечном итоге ИИ станет лучше людей
    • Порой осторожные голоса со стороны бывают правы
    • Мир полон сумасшедших людей, говорящих безумные вещи

    Свежие комментарии

    • Dede к записи Автономные роботакси на воде — это не далёкая мечта
    • Zorro к записи Автономные роботакси на воде — это не далёкая мечта
    • tirannium к записи Автономные роботакси на воде — это не далёкая мечта
    • tirannium к записи Автономные роботакси на воде — это не далёкая мечта
    • Patron к записи Автономные роботакси на воде — это не далёкая мечта
    • Patron к записи Хотя жизнь может показаться неизменной, она всегда готова нас удивить

    Популярные мысли

    • Пол Стемец, грибы. Подобное о грибах вы, пожалуй, не знали!
    • Сигнал Захави, каких мужчин выбирают женщины
    • Пол Стамец, «Star Trek», специалист по споровому приводу
    • Почему мужчин возбуждают чулки? Зачем женщины чулки носят?
    • Почему хипстеры и ламберсексуалы отпускают бороды?
    >>Написать ШляПерам.

    Заметки Безумного ШляПника.

    Декабрь 2025
    Пн Вт Ср Чт Пт Сб Вс
    « Ноя    
    1234567
    891011121314
    15161718192021
    22232425262728
    293031  

    © Copyright Шляперы / Создано при участии E7 Studio

     
    wpDiscuz