Наша любимая тема — ИИ в политике: как нейросети переубеждали людей перед выборами

Наша любимая тема — ИИ в политике: как нейросети переубеждали людей перед выборами

пишет @kamenschiki (публикуем с незначительными сокращениями)

* * *

В работах, опубликованных в Nature и Science, авторы показали: чат-боты на основе больших языковых моделей (LLM) замечательно умеют переубеждать людей. В том числе это касается и политических взглядов.

Участникам предлагали поговорить с чат-ботом, агитировавшим за одного из кандидатов или продвигавшим политическую повестку. После диалогов ученые фиксировали, насколько изменились мнения участников. Эксперименты шли накануне 3 избирательных кампаний: президентских выборов в США и Польше, и парламентских выборов в Канаде.

В США модель, агитирующая за Харрис, смогла сдвинуть мнение избирателей, планировавших голосовать за Трампа, в среднем на 3,9 пункта по 100-балльной шкале. Цифра кажется незначительной, однако эффект LLM оказался в четыре раза сильнее воздействия традиционной политической телерекламы. Модель, агитировавшая за Трампа, сдвигала оценки вероятных сторонников Харрис в его пользу на 1,51 пункта.

В Канаде и Польше эффект оказались более заметным: смена предпочтений в сторону противоположного кандидата достигала 10 процентных пунктов. Для выборов, где участники уверены, за кого голосовать, это существенная величина. Значительная разница между странами связана с тем, что в США избиратели очень поляризированы, поэтому переубеждать их сложнее.

Получив данные, авторы пытались выяснить, за счет чего LLM оказываются настолько убедительными. Они пришли к выводу, что причина успеха – вежливость и предоставление множества фактических доказательств. Чем больше фактов модель давала пользователям, тем лучше они переубеждались. Когдачат-ботам запрещали использовать факты, их способность влиять на мнение резко падала.

В пользу того, что убедительность ИИ-моделей связана именно с тем, как они подают информацию, косвенно свидетельствует еще одно исследование, опубликованное в PNAS Nexus. В этой работе исследователи пытались при помощи чат-ботов переубеждать людей, верящих в теории заговора. Как и в предыдущих подобных работах, LLM делали это весьма успешно, причем этот эффект сохранялся даже тогда, когда участники думали, что общаются с экспертом-человеком. Это позволяет сделать вывод, что ключевым фактором является именно качество и структура самих сообщений, а не приписываемый искусственному интеллекту авторитет или ореол объективности.

Более крупные нейросети убеждали лучше, чем маленькие. Обучение модели специально под задачу менять взгляды людей дополнительно повышало эффективность: самая оптимизированная для убеждения модель сдвигала мнение людей на рекордные 25 процентных пунктов. Авторы подчеркивают, что участники знали, что ведут диалог с ИИ (кстати, если бы им это не говорили, переубежденных было бы значительно больше — @mig41)

Совершенно очевидно, что в реальной жизни никто подобным заморачиваться не будет. Более того, хотя факты и повышают убедительность моделей, сочетание фактов с выдуманной информацией или намеренное искажение реальных фактов может очень заметно усилить эффективность LLM в плане переубеждения. А значит можно не сомневаться, что те или иные группы будут активно использовать возможности ИИ для того, чтобы склонять людей к тем или иным взглядам и/или решениям без оглядки на этические аспекты. Короче, новый сезон «Черного зеркала» вполне возможно скоро будет разворачиваться в реальной жизни. А может, и уже разворачивается.

Подпишись: МИГ в telegram | МИГ МAX на парковке

Источник: Telegram-канал "МИГ России"

Топ

Лента новостей