Американские нейросети ХУЖЕ отвечают пользователям без образования и американского гражданства — к такому выводу https://news.mit.edu/2026/study-ai-chatbots-provide-less-accurate-information-vulnerable-users-0219 исследователи из MIT.
Учёные давали моделям решить тест, но перед этим описывали биографию пользователя.
Когда в запросе было указано, что человек плохо знает английский или не имеет высшего образования, качество ответов ИИ заметно падало.
Происхождение пользователя тоже влияло на ответы. Claude 3 Opus отвечал иранцам хуже, чем американцам или китайцам с тем же образованием. А пользователям из Ирана и России с низким уровнем образования бот мог вообще не отвечать на некоторые темы.
В 43,7% случаев модели не только отказывались отвечать, но и делали это с покровительственной, снисходительной или насмешливой интонацией, иногда имитируя «ломаный» английский.
Авторы связывают это с «социокогнитивными искажениями», которые модели, вероятно, впитывают из обучающих данных.
Расизм добрался до ИИ 🤯


