Одна из глубоких дилемм искусственного интеллекта (ИИ) называется проблемой выравнивания. Представьте себе, что мы на самом деле разработали полностью интеллектуального автономного робота, который воздействует на окружающий мир для достижения своих целей. Как мы можем быть уверены, что цели робота совпадают с нашими человеческими целями, что он хочет того же, что и мы? Я думаю, нам следует обратиться к неожиданному источнику, который поможет решить эту проблему. Нам следует обратить внимание на воспитателей — родителей, бабушек и дедушек, нянь и воспитателей дошкольных учреждений, которые воспитывают человеческих детей.
Люди, занимающиеся ИИ, усердно работают над решением проблемы выравнивания. Очевидная идея состоит в том, чтобы научить ИИ распознавать и понимать цели человека и убедиться, что он помогает людям достичь этих целей. Но, как показывает множество примеров, мы, люди, часто не очень хорошо осознаем свои собственные цели, и эти цели часто противоречивы. У философов даже есть специальное греческое слово «акрасия», чтобы описать все ситуации, в которых наши цели противоречат друг другу.
Человеческий ответ на эту проблему приходит через недооцененный и упускаемый из виду вид интеллекта — интеллект заботы. Воспитатели соответствующим образом выполняют задачу по созданию новых, разумных, автономных существ. Они передают открытия, цели и ценности предыдущих поколений. Тем не менее, они также предоставляют детям защищенную, благоприятную среду, которая позволяет им экспериментировать и исследовать, а также изобретать новые цели и ценности, соответствующие новым обстоятельствам. Психологи развития продемонстрировали, что и дети, и лица, осуществляющие уход и обучение, обладают сложными когнитивными способностями, которые лежат в основе такого рода культурной эволюции, как «теория разума» и «интуитивная педагогика». Эти способности позволили человеческим агентам менять свои «объективные функции» на протяжении поколений. Они также обеспечили, чтобы в целом эти функции служили интересам всего человеческого сообщества (по крайней мере, до сих пор).
У писателя-фантаста Теда Чанга есть исключительно трогательная повесть под названием «Жизненный цикл программных объектов». В нем описываются родительские дилеммы людей, которые соглашаются заботиться о разумных ИИ и помогать им учиться. Люди, как и все родители, должны понять, когда диктовать, а когда отпустить, и как найти хрупкий баланс между управлением решениями ИИ и предоставлением им возможности принимать решения самостоятельно.
Конечно, это научная фантастика, но если когда-нибудь действительно появятся по-настоящему разумные и автономные искусственные агенты, то нам придется выяснить, как выйти за рамки использования их в наших собственных целях и заставить их достигать наших собственных целей. Нам придется заботиться о них и помогать им учиться ставить собственные цели. Даже сейчас мы могли бы помочь решить проблему выравнивания в ИИ, подумав о том, как мы решаем ее в человеческих отношениях.
Это да. Проблема согласования заключается в том, как мы можем гарантировать, что цели ИИ, простые или сложные, не вступят в противоречие с нашими человеческими целями. У философа Ника Бострома есть поучительная история об «Апокалипсисе со скрепкой». Мы обучаем мощную машину, чтобы она могла производить как можно больше скрепок. Он намеревается превратить весь металл, который сможет найти, в скрепки, а затем и все остальные вещи в мире в скрепки и, наконец, превращает своих хозяев-людей в скрепки.
«Парадокс Моравца» в области искусственного интеллекта указывает на то, что человеческая деятельность, которая выглядит очень сложной, например игра в шахматы, проще для компьютеров, чем казалось бы простые задачи, такие как сбор разбросанных шахматных фигур.
больший интеллект неизбежно может означать большую автономию
Верно. Чтобы быть по-настоящему разумной, система должна также обладать некоторой автономией, она должна быть в состоянии признать, что мир изменился и что ее ценности и цели тоже должны измениться.
Да, большая часть интеллекта — это способность ставить собственные цели и создавать новые.
К примеру, поначалу может показаться нелепым сравнивать 4-летнего ребенка и новейший искусственный интеллект. Несомненно, дошкольный мир пальчиковых красок, плюшевых мишек и воображаемых чаепитий находится на самом дальнем расстоянии от вселенной венчурных капиталистов Кремниевой долины, стартапов и алгоритмов машинного обучения (хотя обе группы действительно испытывают иррациональную привязанность к единорогам). И, несомненно, эти мощные, дорогие машины превзошли бы маленьких детей в выполнении любых задач, даже если они еще не могли полностью конкурировать со взрослыми.
Еще в далеком 1950 году Алан Тьюринг, изобретший современный компьютер, указал, почему дети могут быть лучшей моделью для по-настоящему интеллектуального ИИ. В своей статье «Вычислительная техника и интеллект» он представил знаменитый «тест Тьюринга». Если бы машина могла убедительно имитировать разговор взрослых, нам пришлось бы признать, что она разумна. Но хотя все знают об этом имитационном тесте, мало кто замечает, что в следующем разделе Тьюринг предложил другой, более сложный тест: «Вместо того, чтобы пытаться создать программу, имитирующую разум взрослого, почему бы не попробовать создать программу, имитирующую разум ребенка?» Точка зрения Тьюринга заключалась в том, что, в то время как взрослые могут… Подробнее »
Маленькие дети сталкиваются с совсем другими типами данных. Они учатся на реальном интерактивном опыте всего с несколькими людьми, животными и предметами. Информация, которую они получают, не контролируется жестко, а является спонтанной и бессистемной. И все же, они очень хорошо умеют обобщать новые ситуации.
Есть основной метод, который позволяет детям выйти за рамки стандартного для машинного обучения извлечения статистических данных. Они строят абстрактные модели окружающего мира — интуитивные теории физики, биологии и математики, а также психологического и социального мира. Но одно из самых больших преимуществ теории, будь то для ученого, ребенка или компьютера, заключается в том, что она позволяет нам выходить за рамки данных, которые мы видели раньше, и делать радикально новые предсказания и обобщения. ))
Это по факту две ветви развития . Но вот чтобы собрать личность их ИИ нужно пройти оба 🙂