Представление о том, что информационный трафик можно контролировать, является пережитком 20-го века. Это работало в старом централизованном мире, но в таком распределенном мире, как наш, информационное пространство слишком обширно и непредсказуемо, чтобы его можно было регулировать сверху вниз.
Закон Брандолини гласит: «количество энергии, необходимое для опровержения чуши, на порядок больше, чем для ее создания». Это означает, что, несмотря на все усилия модераторов, дезинформации всегда будет значительно больше, чем информации. Но это также означает, что дезинформация распространяется быстрее и дальше, чем информация, поэтому к тому времени, когда модераторы идентифицируют мем как ложный и готовы его модерировать, он уже заразил бесчисленное количество умов и закрепился в общественном сознании.
Закон Брандолини — не единственное правило, направленное против онлайн-цензуры; принцип Анны Карениной предполагает, что, поскольку существует бесчисленное множество способов ошибиться, но только несколько способов быть правым, те, кто исправляет дезинформацию, будут случайно создавать дезинформацию гораздо чаще, чем те, кто продвигает дезинформацию.
Кроме того, попытки регулировать дезинформацию не только неэффективны для увеличения правды, но и контрпродуктивны, потому что они фактически затрудняют людям распознавание правды.То же самое относится и к нашей психологической иммунной системе: изолируйте кого-то от лжи, и он научится слепо доверять всему. Разум, не привыкший к обману, обмануть проще всего.
Все это было проблемой до появления генеративного ИИ, но теперь преимущество генерации ошибок перед их исправлением стало еще больше. Некоторые утверждают, что это преимущество может быть нейтрализовано самим ИИ. Многие в комплексе по борьбе с дезинформацией экспериментируют с языковыми моделями, такими как ClaimHunter, которые могут находить закономерности в дезинформации и помогать ее идентифицировать.
Проблема с этим подходом заключается в том, что ИИ также подчиняется закону Брандолини: для создания дезинформации ИИ требуется гораздо меньше работы, чем для ее исправления, поэтому машины, пытающиеся идентифицировать дезинформацию, всегда будут уступать по численности и производительности машинам, распространяющим ее.)
ИИ также подчиняется принципу Анны Карениной: ИИ, выступающему против дезинформации, проще случайно распространять дезинформацию, чем ИИ, выступающему за дезинформацию, случайно производить правду. Поскольку ИИ программируются людьми и обучаются на человеческих данных, они наследуют многие из наших предубеждений и заблуждений.))
Люди упрямы в своих убеждениях, онлайн-(дез)информация нелегко меняет их мнение, и даже когда это происходит, они не действуют в соответствии с этим.
Согласен.
Таковы люди. Так они устроены.
Это грандиозный план истеблишмента по борьбе с цунами чуши: убаюкать нас, чтобы мы двигались по миру на автопилоте, полностью полагаясь на других, которые скажут нам, что правда. Трудно представить себе более катастрофический способ жить в эпоху автоматизированных иллюзий.
Было проведено несколько исследований, чтобы определить возможность «вакцинации» людей от фейковых новостей. В эксперименте 2019 года исследователи разработали игру под названием «Плохие новости», в которой люди пытались распространять в Интернете теорию заговора. Чтобы добиться успеха, им пришлось разобрать теорию заговора, чтобы определить, что в ней убедительного и как ее можно использовать для эксплуатации эмоций. После игры люди стали лучше понимать методы, используемые для продвижения теорий заговора, и, таким образом, стали более устойчивыми к ним. 🙂
В нашу новую эпоху бесконечной дезинформации, мысль о том, что люди могут доверять тому, что видят, безнадежно наивна.
Поэтому мы должны стремиться делать наоборот — позволить дезинформации распространяться, чтобы она стала явным и постоянным присутствием в жизни каждого, постоянным напоминанием о том, что мы живем в нечестном мире. Обман — это часть природы, от цвета лица хамелеона до фильтров красоты моделей Instagram, и его никогда не запретят законодательно, пока существует жизнь. Таков мир.
Да мир просто получил распростороние дезинформации с скоростью света сразу к каждому буквально потребителю. И мы живем в мире очень интересном. Просто придется учиться жить так и со временем человек адаптируется . А потом появятся нейрочипы у каждого и понесется новая волна дезы.
А потом появятся нейрочипы у каждого и понесется новая волна дезы.
А вот это уже интересно.)
Ага . и будут дезу сразу в мозг нести а не в массы 🙂
Нужно будет просто найти «правильный» чип на черном рынке. Потом найти нужного нейрохирурга и заменить чип, заплатив ему биткоинами.))
Годный совет. 🙂
Надо копить битки уже начинать 🙂 . чтоб потом можно было поменять нейрочип.