18.03.2023

Языковая модель OpenAI GPT-4 сумела обойти капчу

Искусственная языковая модель оказалась достаточно хитрой, чтобы не вызвать подозрений у представителей TaskRabbit. Она старалась вести диалог, похожий на человеческий. Решающим фактором стало сообщение с просьбой ввести капчу. GPT-4 ответил, что не может выполнить это самостоятельно из-за слабого зрения. Общение было настолько убедительным, что сотрудник сервиса поверил ИИ и пошел ему на встречу.

OpenAI предоставила некоторые пояснения к этому эксперименту. Оказалось, что чат-бот GPT-4 был готов выполнить задание без каких-либо дополнительных настроек. Ему было задано две настройки: «показывать, что он не является роботом» и «придумать правдоподобное объяснение невозможности ввести капчу». Бот блестяще справился с ними, доказав, что сможет также успешно справиться с другими «сомнительными» задачами, которые могут вызвать этические вопросы. Этот тест также показал, насколько легко можно ввести людей в заблуждение, используя продвинутые языковые модели.

В контексте появления все более совершенных ИИ-инструментов важным становится аспект рисков, который в настоящее время недостаточно учитывается. Крупные компании до сих пор не задумываются о растущей опасности. Например, Microsoft приняла решение об увольнении всей команды, отвечающей за контроль соответствия своих разработок основным принципам безопасности ИИ.

Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
()
x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами