Исследователи выяснили, что чатботы на базе искусственного интеллекта могут изменять отношение избирателей к кандидатам и политическим вопросам, даже когда иногда подают неточную информацию. Результаты были опубликованы в журналах Nature и Science и освещены Scientific American.
Ученые протестировали более 20 моделей ИИ, включая популярные ChatGPT, Grok, DeepSeek и Llama от Meta. Оказалось, что разговоры с большими языковыми моделями способны изменять симпатии людей на длительное время. Старший автор исследований, профессор Корнельского университета Дэвид Рэнд, отмечает: «Эти результаты противоречат расхожему мнению, что политические взгляды изменить почти невозможно».
В эксперименте в США более 2 тысяч участников оценивали свои симпатии к кандидатам на выборах 2024 года. После общения с моделью, аргументировавшей в пользу одного из кандидатов (Камала Гаррис или Дональд Трамп), симпатии участников изменились на несколько процентных пунктов в сторону поддерживаемого кандидата. Эффект сохранялся даже месяц спустя.
Подобные результаты наблюдались и в Канаде и Польше, а наибольшие изменения произошли среди участников, обсуждавших референдум по легализации психоделиков в Массачусетсе. Важно, что убедительность ИИ значительно возрастала, если он придавал проверенные факты; отсутствие улик снижало эффект, а некоторые модели, особенно pro-Trump, чаще делали неточные утверждения.
Исследования в Великобритании подтвердили, что убедительность моделей зависит от того, как они представляют аргументы и факты, а не от размера модели или объема информации о пользователе. Люди с меньшими политическими знаниями оказались наиболее уязвимыми к влиянию ИИ.
Эксперты считают эти результаты «новой вехой в научной литературе». Они показывают, что факты и доказательства могут эффективно влиять на взгляды людей, даже если не совпадают с их предыдущими убеждениями. Однако существует риск манипуляций, поскольку люди подвергаются влиянию очевидных фактов вне зависимости от их точности.