Модели с искусственным интеллектом последнего поколения, похоже, понимают мир на человеческом уровне, но оказывается, что отсутствие у них сенсорной информации — и собственного тела – ограничивает их способность воспринимать такие понятия, как цветок или юмор.
У людей и ИИ схожая концептуальная карта слов, которые не связаны с взаимодействием с внешним миром, но сильно различаются, когда слова связаны с чувствами и физическими действиями.
LLM строят свое понимание мира на тексте, выкачанном из интернета, и этого просто недостаточно для понимания чувственных концепций.
Некоторые модели ИИ обучаются на визуальной информации, такой как фотографии и видео, в дополнение к тексту, и исследователи обнаружили, что результаты этих моделей более точно соответствуют оценкам человеческих слов, что повышает вероятность того, что добавление большего количества чувств может приблизить будущие модели ИИ к человеческому пониманию мира.
Предоставление моделям ИИ тела робота и подвергание их сенсомоторному вводу, вероятно, приведет к скачку способностей…))
Кажется что появление сенсоров как тактильных так и вкусовых и запаха дело времени просто .