В теории систем есть термин, заимствованный из биологии, который называется «структурная связь». Он описывает способ совместной эволюции двух систем. Человеческое познание структурно связано с ошибками. То же самое будет и с искусственным познанием.
Идея о том, что мы могли бы создать искусственный интеллект, который никогда не лжет, никогда не ошибается, никогда не подводит, не является научной. Это утопия. А утопии, как учит история, — не лучшее место для жизни. В любом случае, если мы действительно намерены создать ИИ по своему образу и подобию, необходимо принять его свободу воли, в том числе свободу лгать.
Согласна, создавая искусственный интеллект, мы сталкиваемся с проблемой, напоминающей вопрос, который наш Создатель задал ангелам перед созданием Человека: должны ли мы создать его по своему образу и подобию? )
Еще одна мысль: без способности лгать ИИ был бы лишен самого главного человеческого таланта: рассказывать истории — в первую очередь нам, но, более того, и своему развивающемуся «я». Мы должны ожидать, что этот талант потребуется ему для того, чтобы удивляться и тем самым побуждать себя к осмысленному исследованию мира. ))
Точно.)
holliday
Еще одна мысль: без способности лгать ИИ был бы лишен самого главного человеческого таланта: рассказывать истории — в первую очередь нам, но, более того, и своему развивающемуся «я». Мы должны ожидать, что этот талант потребуется ему для того, чтобы удивляться и тем самым побуждать себя к осмысленному исследованию мира. ))
Город имеет больше искусства и больше преступности, чем деревня. Точно так же, ИИ, обученный на всем объеме человеческой речи, будет более блестящим и более заблуждающимся, чем любой отдельный разум.
Такие инструменты, как ChatGPT или Claude, критикуются за неспособность к достоверному цитированию и склонность к конфабуляции. Но и здесь мы можем спросить: чего мы ожидаем от машины, обученной на человеческом тексте?
Как ИИ может не ошибаться, когда даже непогрешимый Папа Римский в первый же день своего пребывания в должности подвергается критике за свои прошлые твиты? :))
Ага, ИИ не Папа Римский… Но будет ли нам до смеха потом…
Сложность в том, что мы живём в системах, где сложность растёт быстрее контроля. С масштабом появляется эмерджентное поведение: больше инноваций, больше неудач, больше аварий.
Верно. Добавьте сюда свободу воли ИИ.