Стивен Хокинг однажды предупредил, что «развитие полноценного искусственного интеллекта может означать конец человеческой расы». Далее он объяснил, что ИИ «будет развиваться сам по себе и переделывать себя со все возрастающей скоростью», в то время как «люди, ограниченные медленной биологической эволюцией, не смогут конкурировать и будут вытеснены». Он, конечно, не одинок в своем мнении…
На самом деле это общая тема не только в Голливуде, но и между двумя видными группами философов и футуристов. Одна точка зрения состоит в том, что искусственный общий интеллект (AGI) станет сверхразумным и неподконтрольным людям, что приведет к всевозможным сценариям вымирания (вспомните SkyNet или Grey Goo). Немного более оптимистичная точка зрения, которой придерживаются трансгуманисты, состоит в том, что человечество сольется с продвинутым ИИ и сформирует сверхлюдей. Таким образом, в то время как биологическое немое человечество может пойти по пути птицы додо, новая форма гибрида человека и машины будет продолжать развиваться и править Вселенной. Кстати, это должно произойти примерно в 2045 году, согласно Рэю Курцвейлу в его книге 2005 года «Сингулярность рядом».
Стандартная теория состоит в том, что люди не могут развивать свой разум особенно быстро из-за предположения, что мы ограничены связями в нашем мозгу. ИИ, с другой стороны, не имеет таких ограничений и, благодаря рекурсивному самосовершенствованию, будет развиваться с неудержимой экспоненциальной скоростью, что делает неизбежным в какой-то момент вытеснение людей с точки зрения интеллекта.
Первое предположение заключается в том, что развитие ИИ будет продолжаться в геометрической прогрессии. Это недальновидно… Большинство экспоненциальных процессов сталкиваются с эффектами отрицательной обратной связи, которые в конечном итоге ослабляют ускорение. Например, экспоненциальный рост популяции происходит в бактериальных колониях до тех пор, пока среда не достигнет своей несущей способности, а затем он стабилизируется. Мы просто не знаем, какова «грузоподъемность» ИИ.
Так-то да… Аналогичным образом он должен работать в некоторой среде, в которой в какой-то момент может закончиться память, мощность или другие ресурсы. ))
Пол Аллен в своей статье «Сингулярность не рядом» утверждает, что виды обучения, необходимые для продвижения ИИ вперед, происходят не экспоненциально, а скорее неравномерно и непредсказуемо. По мере того, как вещи становятся более сложными, прогресс имеет тенденцию замедляться, эффект, который он называет тормозом сложности.
На самом деле период удвоения составляет около 6 лет вместо 2, что предполагает, что нам нужно в 3 раза больше времени, прежде чем мы столкнемся с сингулярностью, по сравнению с предсказанием Курцвейла. Поскольку прогноз 2045 года для Сингулярности был сделан в 2005 году, это означало бы, что мы действительно не увидим ее до 2125 года. Это предполагает, что мы идем в ногу с текущими темпами роста ИИ и даже не ударяем по тормозу сложности Пола Аллена.))
Думаю, стоит сделать одно допущение, которое заключается в том, что возможности человеческого разума ограничены сложностью человеческого мозга и, следовательно, относительно фиксированы.
Давайте рассмотрим один пример. Deep Blue обыграл Гарри Каспарова в игре в 1996 году, впервые машина обыграла чемпиона мира по шахматам. AlphaGo от Google впервые обыграл гроссмейстера в Го в 2016 году. За эти 20 лет в законе Мура есть 10 2-летних циклов удвоения, что означает, что если бы ИИ развивался экспоненциально, «разум», необходимый для победы над мастером Го в 1000 раз больше интеллекта, необходимого для победы над мастером шахмат. Очевидно, это смешно. Хотя теоретически Го является более сложной игрой, чем шахматы, потому что в ней гораздо больше возможных ходов, можно привести аргумент, что интеллект и мастерство, необходимые для того,… Подробнее »
Мне кажется нету у нас шансов против ИИ . Как только мы что-то подобное создадим привет мир.
Еще несколько лет назад одна компания делала ИИ для игры против кибер спортсменов.
Они показывали, как думает ИИ там было порядка 1 миллиона комбинаций на действие.
А это в игре в матче. А параллельно этому ИИ играло еще 1 миллион матчей оттачивая мастерство.
И после матча оно училось и 24 на 7 оно училось.
Тоже аргумент…))
Технологии развиваются экспоненциально, потому что новые технологии постоянно используются для создания технологий следующего поколения. Глядя на то, как сильно мир изменился только за последние 25 лет, с этим действительно не поспоришь.