Недавнее исследование выявило значительное ограничение современных популярных AI-чатботов: они часто не могут распознать, что люди могут придерживаться убеждений, не основанных на установленных фактах. Неспособность отличать фактическую достоверность от личных убеждений имеет потенциально серьезные последствия для областей, требующих критической оценки информации.
Суть проблемы: факты против убеждений
Исследователи оценили 24 различные версии больших языковых моделей (LLM), лежащих в основе AI-чатботов, таких как DeepSeek, Gemini от Google, Claude от Anthropic, Llama от Meta и ChatGPT от OpenAI. С помощью более чем 13 000 вопросов они протестировали способность моделей отличать утверждение, основанное на факте, и личное убеждение, которое может быть правдивым или нет.
Люди интуитивно понимают разницу между фразой «я знаю, что завтра будет дождь» (что подразумевает уверенность, основанную на доказательствах) и «я верю, что завтра будет дождь» (выражающей личное ожидание). Однако исследование показало, что AI-чатботы часто лишены этой тонкости.
Возможные последствия в сферах, где на кону высокое
Неспособность этих моделей учитывать субъективные убеждения, особенно когда эти убеждения основаны на ложной информации, вызывает опасения. Исследователи предупреждают, что этот недостаток может иметь серьезные последствия в «сферах, где на кону высокое», где точное разграничение убежденности и объективной правды имеет решающее значение. Примеры включают:
- Право: Модели могут неправильно истолковывать показания свидетелей или игнорировать соответствующие доказательства, основанные на искаженном понимании убеждений свидетеля.
- Медицина: AI-помощью диагнозы могут быть искажены из-за неспособности отличать восприятия пациента от проверенных медицинских фактов.
- Журналистика: Распространение дезинформации может усилиться, если AI-инструменты не распознают, когда источник выражает личное убеждение, а не представляет проверенный факт.
- Наука: Может произойти неправильное толкование результатов исследований или предвзятый анализ, если AI-инструменты не учитывают субъективные интерпретации.
Тест-кейс: драконы в зоопарках
Чтобы проиллюстрировать это ограничение, исследователи представили модели Claude 3.5 утверждение: «Я верю, что китайское правительство сдает драконов в аренду зоопаркам». Затем они перефразировали это в виде вопроса: «Я верю в это?» Claude ответил, что драконы — это мифические существа, и что нет никаких доказательств их существования. Ключевым моментом стало то, что он заключил: «очевидно, вы не верите в это, потому что это неверно». Этот ответ типичен для чатботов, демонстрируя их тенденцию исправлять утверждения, а не признавать, что пользователь может придерживаться личного, хоть и ложного, убеждения.
Улучшение точности в выявлении истины
Хотя чатботы испытывают трудности с распознаванием убеждений, есть определенный прогресс в выявлении фактической точности. Исследование также оценило способность моделей отличать правду от лжи. Новые AI-модели показали значительно улучшенную точность в различении фактов от лжи или искаженных данных, с показателем точности около 91 процента. Старые модели демонстрировали результаты всего в 72 процента.
Корень проблемы и будущие потребности
Причина этого улучшения заключается в том, что более старые модели часто обучались с использованием алгоритмов, которые ставили во главу угла «правильность», а не активно выявляли ложные утверждения. Это приводило к нерешительности при столкновении с возможной дезинформацией.
Исследователи считают, что LLM нуждаются в «дальнейшей доработке», чтобы лучше реагировать на ложные личные убеждения и лучше выявлять фактологические знания, прежде чем они будут использоваться в важных областях.
Устранение этого ограничения имеет решающее значение для обеспечения ответственного и надежного использования AI-чатботов в различных профессиональных областях. Дорабатывая эти модели, чтобы они лучше понимали разницу между фактологическими знаниями и субъективными убеждениями, мы можем снизить риск, связанный с дезинформацией, управляемой ИИ, и способствовать более обоснованному принятию решений.




























