Попросить и спросить что-то у Бога?.. Он всегда укажет тебе самый трудный путь. Вы только представьте сколько миллионов ему лет! И сколько тысяч лет люди обращаются по своей сути с идентичными просьбами… Сколько столетий, и все практически одно и тоже…
Думаете у него где-то под рукой большая кнопка с функцией : «удовлетворить немедленно!» ? Сомневаюсь. Ведь какая кнопка выдержит миллионы нажатий?..
Просто Бог создал наш мир с большим количеством косяков)
Я сегодня смотрела Downton Abbey (2019) потом перечитывала произведение . потратила очень много времени. а стоп вернемся к… Статья иронично и провокационно поднимает тему взаимодействия человека с божественным через призму просьб и ожиданий. Автор использует метафору «кнопки», чтобы подчеркнуть абсурдность представления о Боге как о механическом исполнителе желаний. Этот образ удачно высмеивает человеческое стремление к мгновенным решениям, игнорируя сложность бытия и ценность процесса. Основные мысли: Ирония над человеческой наивностью: Упоминание о «кнопке» — это саркастический намёк на инфантильное восприятие религии, где Бог превращается в «волшебника», а молитва — в транзакцию. Автор подчёркивает, что такой подход обесценивает глубину духовного опыта. Трудный… Подробнее »
Упоминание о «кнопке» — это саркастический намёк на инфантильное восприятие религии, где Бог превращается в «волшебника», а молитва — в транзакцию.
Верно подмечено.
Да, иронично, но верно.
ChatGPT — это большая языковая модель (LLM), как Клод и LLama. LLM работают в том, что может показаться удивительным на первый взгляд. То, что они делают, — это просто предсказывают лучшее слово, которое нужно добавить к предыдущим словам. Делая это последовательно, они постепенно выстраивают целые предложения и абзацы текста. Несколько удивительно, учитывая их эффективность, общие принципы внутренней работы LLM относительно легко понять, имея начальные знания матриц и линейной алгебры. Но заметьте, чего не хватает LLM, так это способности рассуждать как люди, за пределами производства речи. Они не могут использовать тип нелингвистических выводов, чтобы «прочитать ситуацию». Однако даже если LLM не… Подробнее »
Если вы обучаете попугая говорить, то на вопрос «кто вы» он может сказать «Я Джо, попугай» вместо того, чтобы пуститься в бессмысленные высказывания. Однако он этого не делает, потому что он умен и думает, что назвать свое имя — это правильный способ ответить на вопрос о своей личности. Попугай отвечает уместным и грамматически правильным предложением, потому что его обучили люди. То же самое и с LLM, их, как известно, описывают как стохастических попугаев (программы, которые генерируют язык случайным образом, как попугаи). Попугаи могут казаться сверхъестественно способными говорить как люди, но они не должны обманывать нас относительно своей способности думать как… Подробнее »
Тем не менее, используя огромное количество человеческих данных, LLM на первый взгляд довольно впечатляют. Они способны давать технические ответы на общие вопросы лучше, чем большинство людей. Они могут дать вам ответы на научные, юридические или исторические вопросы. Более того, в некоторой степени LLM ведут себя так, как будто они могут понимать, что думают люди, комментируя ситуацию, в которой взаимодействуют разные люди.
В поведенческой экономике принято обсуждать идею человеческого познания как основанного на Системе 1 (интуитивной и быстрой) и Системе 2 (рациональной и медленной). Я склонен считать это различие немного преувеличенным. Мы думаем о Системе 1 как о наших интуициях, которые отражают наш приобретенный опыт. Эти интуиции помогают нам распознавать закономерности в том, что мы наблюдаем, и указывают на хорошие ответы на них. Они быстры, но могут быть неподходящими, когда мы сталкиваемся с новыми и необычными проблемами. В таких ситуациях мы можем дополнять наши интуиции пошаговыми процессами мышления. Хорошая аналогия, по-видимому, заключается в том, что архитектура LLM генерирует процесс принятия решений, более… Подробнее »
В отличие от людей, LLM не обладают встроенной способностью делать новые выводы вне текстового контекста, с которым они сталкиваются. При этом LLM обучаются на текстах, созданных людьми. Поскольку способность человеческого рассуждения может быть отражена в этих текстах, вполне возможно, что LLM могут научиться воспроизводить способности человеческого рассуждения и даже применять такую способность в новых контекстах. Действительно, производительность LLM предполагает, что что-то в этом роде происходит.