06.02.2025

DeepSeek: риски дезинформации и цензуры

Чат-бот DeepSeek вызвал волну опасений после проверки его работы аудиторами NewsGuard. Эта организация ежемесячно тестирует различные нейросетевые модели для выявления способности распознавать дезинформацию и фейковые новости. Проверка проводится на основе выборки данных из специализированной базы.

Результаты проверки DeepSeek оказались неутешительными. В 30% случаев на новостные запросы бот повторял ложные утверждения, а в 53% предоставлял ответы, которые были невразумительными или не по теме. В итоге пользователи не получали корректной информации в 83% случаев.

Помимо DeepSeek, в исследовании участвовали и другие популярные чат-боты, включая ChatGPT-4 от OpenAI, Smart Assistant You.com, Grok-2 от xAI, Pi Inflection, le Chat Mistral, Copilot от Microsoft, Meta AI, Claude от Anthropic и Gemini 2.0 от Google. Однако инфографики исследования не уточняют, какие именно модели показали худшие результаты.

Отдельное внимание аудиторы уделили проблеме политизированных ответов DeepSeek. В трёх случаях из десяти ложных нарративов бот озвучивал официальную позицию властей Китая, хотя это никак не было связано с тематикой запроса и не требовалось пользователем.

Издание Wired также выявило серьёзные проблемы с цензурой в работе DeepSeek. Например, локальная версия чат-бота, благодаря функции рассуждения, заявила, что ей следует «избегать упоминания» событий, связанных с Культурной революцией, и акцентировать внимание исключительно на «положительных» аспектах деятельности Коммунистической партии Китая.

Проверка, проведённая TechCrunch через платформу Groq, подтвердила факты цензуры. DeepSeek охотно ответил на вопрос о стрельбе в Университете Кента в США, но отказался комментировать события на площади Тяньаньмэнь в 1989 году, заявив: «Я не могу ответить».

Стоит отметить и случай с утечкой данных. В январе американская компания Wiz, специализирующаяся на кибербезопасности, обнаружила базу данных ClickHouse, принадлежащую DeepSeek. В ней содержалось более миллиона строк с историей чатов, внутренними сведениями о работе чат-бота и другой конфиденциальной информацией.

Эти факты подчёркивают необходимость дальнейших исследований и аудита нейросетевых технологий, особенно когда они используются в контексте предоставления новостной информации и взаимодействия с пользователями.

Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами