Шляперы
  • Причесанные мысли
  • Непричесанные мысли
  • О проекте
  • Связь
  • Вход

Искусственный интеллект: экспоненциальная скорость развития?

02.08.2022hollidayМысли9 комментариев

Стивен Хокинг однажды предупредил, что «развитие полноценного искусственного интеллекта может означать конец человеческой расы». Далее он объяснил, что ИИ «будет развиваться сам по себе и переделывать себя со все возрастающей скоростью», в то время как «люди, ограниченные медленной биологической эволюцией, не смогут конкурировать и будут вытеснены». Он, конечно, не одинок в своем мнении…

На самом деле это общая тема не только в Голливуде, но и между двумя видными группами философов и футуристов. Одна точка зрения состоит в том, что искусственный общий интеллект (AGI) станет сверхразумным и неподконтрольным людям, что приведет к всевозможным сценариям вымирания (вспомните SkyNet или Grey Goo). Немного более оптимистичная точка зрения, которой придерживаются трансгуманисты, состоит в том, что человечество сольется с продвинутым ИИ и сформирует сверхлюдей. Таким образом, в то время как биологическое немое человечество может пойти по пути птицы додо, новая форма гибрида человека и машины будет продолжать развиваться и править Вселенной. Кстати, это должно произойти примерно в 2045 году, согласно Рэю Курцвейлу в его книге 2005 года «Сингулярность рядом».

Стандартная теория состоит в том, что люди не могут развивать свой разум особенно быстро из-за предположения, что мы ограничены связями в нашем мозгу. ИИ, с другой стороны, не имеет таких ограничений и, благодаря рекурсивному самосовершенствованию, будет развиваться с неудержимой экспоненциальной скоростью, что делает неизбежным в какой-то момент вытеснение людей с точки зрения интеллекта.

18
Посмотрели: 1 095

Автор публикации

не в сети 1 неделя

holliday

1 584
Комментарии: 89Публикации: 67Регистрация: 20-04-2021
: люди и прогнозы, точка зрения, трансгуманисты, футурология, человеческая раса
Предыдущая запись Когда вы сталкиваетесь с чем-то, чего не хотите делать Следующая запись Бог — это хнычущий подросток-хакер?

Похожие статьи

Почему  женщины набирают больше баллов по невротизму?

08.03.2025Patron

Если бы мы видели мир таким, каков он есть на самом деле

10.06.2023TeRMinaToR

Мы делаем это, чтобы более эффективно лгать другим

20.02.2025obsession

9
Отправить ответ

Войти с помощью: 
avatar
wpdiscuz_captcharefresh
4 Цепочка комментария
5 Ответы по цепочке
0 Последователи
 
Популярнейший комментарий
Цепочка актуального комментария
8 Авторы комментариев
sirslehollidayDedeВолшебник ВTeRMinaToR Авторы недавних комментариев
avatar
wpdiscuz_captcharefresh
  Подписаться  
Уведомление о
obsession
Участник
obsession

Первое предположение заключается в том, что развитие ИИ будет продолжаться в геометрической прогрессии. Это недальновидно… Большинство экспоненциальных процессов сталкиваются с эффектами отрицательной обратной связи, которые в конечном итоге ослабляют ускорение. Например, экспоненциальный рост популяции происходит в бактериальных колониях до тех пор, пока среда не достигнет своей несущей способности, а затем он стабилизируется. Мы просто не знаем, какова «грузоподъемность» ИИ.

0
Ответить
02.08.2022 21:55
holliday
Автор
holliday

Так-то да… Аналогичным образом он должен работать в некоторой среде, в которой в какой-то момент может закончиться память, мощность или другие ресурсы. ))

0
Ответить
02.08.2022 21:57
mechanic
Участник
mechanic

Пол Аллен в своей статье «Сингулярность не рядом» утверждает, что виды обучения, необходимые для продвижения ИИ вперед, происходят не экспоненциально, а скорее неравномерно и непредсказуемо. По мере того, как вещи становятся более сложными, прогресс имеет тенденцию замедляться, эффект, который он называет тормозом сложности.

0
Ответить
02.08.2022 22:00
TeRMinaToR
Участник
TeRMinaToR

На самом деле период удвоения составляет около 6 лет вместо 2, что предполагает, что нам нужно в 3 раза больше времени, прежде чем мы столкнемся с сингулярностью, по сравнению с предсказанием Курцвейла. Поскольку прогноз 2045 года для Сингулярности был сделан в 2005 году, это означало бы, что мы действительно не увидим ее до 2125 года. Это предполагает, что мы идем в ногу с текущими темпами роста ИИ и даже не ударяем по тормозу сложности Пола Аллена.))

0
Ответить
02.08.2022 22:13
Волшебник В
Участник
Волшебник В

Думаю, стоит сделать одно допущение, которое заключается в том, что возможности человеческого разума ограничены сложностью человеческого мозга и, следовательно, относительно фиксированы.

0
Ответить
02.08.2022 22:18
Patron
Участник
Patron

Давайте рассмотрим один пример. Deep Blue обыграл Гарри Каспарова в игре в 1996 году, впервые машина обыграла чемпиона мира по шахматам. AlphaGo от Google впервые обыграл гроссмейстера в Го в 2016 году. За эти 20 лет в законе Мура есть 10 2-летних циклов удвоения, что означает, что если бы ИИ развивался экспоненциально, «разум», необходимый для победы над мастером Го в 1000 раз больше интеллекта, необходимого для победы над мастером шахмат. Очевидно, это смешно. Хотя теоретически Го является более сложной игрой, чем шахматы, потому что в ней гораздо больше возможных ходов, можно привести аргумент, что интеллект и мастерство, необходимые для того,… Подробнее »

Ответить
02.08.2022 22:10
Dede
Участник
Dede

Мне кажется нету у нас шансов против ИИ . Как только мы что-то подобное создадим привет мир.
Еще несколько лет назад одна компания делала ИИ для игры против кибер спортсменов.
Они показывали, как думает ИИ там было порядка 1 миллиона комбинаций на действие.
А это в игре в матче. А параллельно этому ИИ играло еще 1 миллион матчей оттачивая мастерство.
И после матча оно училось и 24 на 7 оно училось.

0
Ответить
03.08.2022 07:13
holliday
Автор
holliday

Тоже аргумент…))

0
Ответить
03.08.2022 23:42
sirsle
Участник
sirsle

Технологии развиваются экспоненциально, потому что новые технологии постоянно используются для создания технологий следующего поколения. Глядя на то, как сильно мир изменился только за последние 25 лет, с этим действительно не поспоришь.

0
Ответить
05.08.2022 20:52

    Cвежие мысли

    • Панпсихизм не совсем духовен, но разве он не отражает ту же человеческую жажду смысла?
    • Человеческая смелость, требует высокой степени незнания рисков
    • Размышление о существовании бога — уникальное человеческое занятие
    • Макиавелли: «Как стать генеральным директором»
    • Причина, по которой «сознание ИИ» не появится в ближайшее время

    Свежие комментарии

    • RedHat к записи Мама Форреста Гампа говорила: «глупость — это то, что делает глупость»
    • RedHat к записи Почему хорошим людям приходится работать все больше и больше, чтобы сохранить все меньше и меньше того, что они получают?
    • Dede к записи Панпсихизм не совсем духовен, но разве он не отражает ту же человеческую жажду смысла?
    • Koshka к записи Панпсихизм не совсем духовен, но разве он не отражает ту же человеческую жажду смысла?
    • Zorro к записи Панпсихизм не совсем духовен, но разве он не отражает ту же человеческую жажду смысла?
    • Patron к записи Человеческий разум не может отделить воспоминания от реальности

    Популярные мысли

    • Пол Стемец, грибы. Подобное о грибах вы, пожалуй, не знали!
    • Сигнал Захави, каких мужчин выбирают женщины
    • Почему мужчин возбуждают чулки? Зачем женщины чулки носят?
    • Пол Стамец, «Star Trek», специалист по споровому приводу
    • Почему хипстеры и ламберсексуалы отпускают бороды?
    >>Написать ШляПерам.

    Заметки Безумного ШляПника.

    Декабрь 2025
    Пн Вт Ср Чт Пт Сб Вс
    « Ноя    
    1234567
    891011121314
    15161718192021
    22232425262728
    293031  

    © Copyright Шляперы / Создано при участии E7 Studio

     
    wpDiscuz