23.06.2024

Искусственный интеллект создает изображения, которые люди могут распознать только в 60% случаев. Остальные изображения они считают настоящими!

Исследование, проведенное в Университете Ватерлоо, выявило, что люди с трудом, с точностью всего 61%, могут отличить реальные изображения от тех, которые созданы искусственным интеллектом. Этот факт вызывает обеспокоенность о надежности визуальной информации и необходимости разработки инструментов для идентификации контента, сгенерированного ИИ.

Исследование показало, что почти в 40% случаев участники опроса ошибались, считая изображения, созданные ИИ, настоящими. Оказалось значительно сложнее, чем ожидалось, различить реальных людей от тех, кто был создан искусственно. В рамках исследования участникам было предложено оценить 20 немаркированных изображений: 10 из них были настоящими людьми, найденными через Google, и еще 10 были созданы с помощью программ ИИ, таких как Stable Diffusion или DALL-E, которые способны генерировать изображения.

Участников попросили отметить каждое изображение как настоящее или созданное ИИ и объяснить свой выбор. Только 61% участников справились с заданием, что значительно ниже ожидаемого порога в 85%.

«Люди не так уверены в своих способностях, как им кажется», — отметил Андреа Покол, кандидат компьютерных наук из Университета Ватерлоо, главный автор исследования. Участники обращали внимание на детали, такие как пальцы, зубы и глаза, надеясь использовать их как признаки для распознавания ИИ-генерированных изображений, однако их оценки не всегда были точными.

Покол отметил, что характер исследования позволял участникам внимательно анализировать фотографии, что сильно отличается от способа, которым пользователи обычно просматривают изображения в интернете. «Люди могут быстро просматривать контент или не обращать на него внимания из-за нехватки времени, они просто не замечают этих сигналов», — добавил он.

Развитие технологий ИИ происходит настолько быстро, что понимание потенциальных угроз, связанных с ИИ-созданными изображениями, затрудняется. Скорость научных исследований и разработок законодательства часто не успевает за технологиями: с момента начала исследования в конце 2022 года изображения, создаваемые ИИ, стали еще более реалистичными.

Такие изображения представляют особую опасность как политический и культурный инструмент, позволяя пользователям создавать поддельные изображения общественных деятелей в компрометирующих ситуациях.

«Дезинформация не нова, но инструменты для её создания постоянно совершенствуются», — подчеркнул Покол. «Возможно, придет время, когда люди, независимо от своих умений, будут трудно отличать реальные изображения от подделок. Поэтому нам нужно активно разрабатывать инструменты для обнаружения и противодействия этому явлению. Это напоминает новую гонку вооружений в области ИИ».

Ранее исследователи из Канады разработали метод, который с высокой точностью может определить, находится ли человек в состоянии алкогольного опьянения, используя систему машинного обучения на основе анализа речи.

Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами