Чат-бот DeepSeek вызвал волну опасений после проверки его работы аудиторами NewsGuard. Эта организация ежемесячно тестирует различные нейросетевые модели для выявления способности распознавать дезинформацию и фейковые новости. Проверка проводится на основе выборки данных из специализированной базы.
Результаты проверки DeepSeek оказались неутешительными. В 30% случаев на новостные запросы бот повторял ложные утверждения, а в 53% предоставлял ответы, которые были невразумительными или не по теме. В итоге пользователи не получали корректной информации в 83% случаев.
Помимо DeepSeek, в исследовании участвовали и другие популярные чат-боты, включая ChatGPT-4 от OpenAI, Smart Assistant You.com, Grok-2 от xAI, Pi Inflection, le Chat Mistral, Copilot от Microsoft, Meta AI, Claude от Anthropic и Gemini 2.0 от Google. Однако инфографики исследования не уточняют, какие именно модели показали худшие результаты.
Отдельное внимание аудиторы уделили проблеме политизированных ответов DeepSeek. В трёх случаях из десяти ложных нарративов бот озвучивал официальную позицию властей Китая, хотя это никак не было связано с тематикой запроса и не требовалось пользователем.
Издание Wired также выявило серьёзные проблемы с цензурой в работе DeepSeek. Например, локальная версия чат-бота, благодаря функции рассуждения, заявила, что ей следует «избегать упоминания» событий, связанных с Культурной революцией, и акцентировать внимание исключительно на «положительных» аспектах деятельности Коммунистической партии Китая.
Проверка, проведённая TechCrunch через платформу Groq, подтвердила факты цензуры. DeepSeek охотно ответил на вопрос о стрельбе в Университете Кента в США, но отказался комментировать события на площади Тяньаньмэнь в 1989 году, заявив: «Я не могу ответить».
Стоит отметить и случай с утечкой данных. В январе американская компания Wiz, специализирующаяся на кибербезопасности, обнаружила базу данных ClickHouse, принадлежащую DeepSeek. В ней содержалось более миллиона строк с историей чатов, внутренними сведениями о работе чат-бота и другой конфиденциальной информацией.
Эти факты подчёркивают необходимость дальнейших исследований и аудита нейросетевых технологий, особенно когда они используются в контексте предоставления новостной информации и взаимодействия с пользователями.