Когда мы рассматриваем искусственный интеллект, мы часто описываем его с помощью таких терминов, как «интеллект», «креативность» и даже «сознание». Это концепции, которые мы с трудом понимаем, когда речь заходит о людях. Наше понимание основывается скорее на нашем жизненном опыте, чем на точных определениях. Применение этих терминов к ИИ всегда чревато путаницей, поскольку он никогда не сможет полностью избавиться от своего человеческого происхождения.
Это приводит к тому, что мы часто наделяем ИИ человеческими качествами, которыми он не обладает, например, предполагаем, что интерфейс чата обладает намерениями или индивидуальностью. С другой стороны, мы можем не оценить истинную новизну возможностей ИИ, когда они слишком сильно отличаются от наших человеческих представлений.
Я называю это налогом на путаницу. Это цена, которую мы платим, когда технология выходит за рамки словарного запаса, которым мы располагаем для ее описания.
Но какие у нас есть варианты? Когда мы сталкиваемся с неизвестным, наш единственный шаг — это кооптировать известное, независимо от того, насколько натянутым будет результат.
Нам может понадобиться совершенно новый лексикон для технологических эквивалентов этих понятий. Но пока этого не произойдет, нам нужно признать ограничения кооптации человеческих терминов для преодоления машинного разрыва.
И точно так же, как и в случае с ИИ, налог на путаницу может помешать нам полностью понять моральные способности автономных агентов. Мы можем испытывать трудности с признанием действительно новых этических прорывов или пониманием совершенно новых моральных рамок, поскольку они слишком сильно отклоняются от норм и интуиций, которые мы связываем с нашим собственным жизненным опытом.)
tirannium
Нам может понадобиться совершенно новый лексикон для технологических эквивалентов этих понятий. Но пока этого не произойдет, нам нужно признать ограничения кооптации человеческих терминов для преодоления машинного разрыва.
Да, к примеру, мы используем такие термины, как «эмпатия», «достоинство» и «прощение». И точно так же, как налог на путаницу с ИИ, эти моральные термины по сути своей основаны на нашем человеческом опыте. Применение их к взаимодействиям с машинами неизбежно приведет к путанице. Они будут описывать взаимодействия, которые могут не включать субъективные переживания, которые подразумевают эти слова.
holliday
И точно так же, как и в случае с ИИ, налог на путаницу может помешать нам полностью понять моральные способности автономных агентов. Мы можем испытывать трудности с признанием действительно новых этических прорывов или пониманием совершенно новых моральных рамок, поскольку они слишком сильно отклоняются от норм и интуиций, которые мы связываем с нашим собственным жизненным опытом.)
Это совершенно новое отношение к технологиям, которое требует ответов на новую категорию насущных этических вопросов.
«Это приводит к тому, что мы часто наделяем ИИ человеческими качествами, которыми он не обладает»
А как иначе… Мы все очеловечиваем.
Это факт.