Искусственный интеллект и информационные конфликты: почему простая маркировка контента уже не способна решить проблему

Искусственный интеллект и информационные конфликты Маркетинг и реклама
или

Искусственный интеллект все глубже внедряется в нашу повседневную жизнь, и иногда мы не осознаем, что контент, который мы потребляем, создан не человеком, а алгоритмом. Согласно заместителю председателя думского комитета по информационной политике Антону Горелкину, наступило время требовать от российских онлайн-сервисов маркировку контента, созданного при помощи искусственного интеллекта, с участием самих пользователей.

Какие преимущества может принести такой подход и с какими сложностями мы можем столкнуться при его реализации? Своим мнением поделилась Анна Кулик, уполномоченная по вопросам этики в области искусственного интеллекта, визионер и директор по стратегическому маркетингу в компании «Инферит».

ИИ и информационные войны: почему маркировка контента уже недостаточна

Искусственный интеллект в качестве инструмента создания контента: возможности и этические дилеммы

В настоящее время искусственный интеллект широко используется для генерации разнообразного контента, начиная от текстов новостей и статей и заканчивая изображениями, музыкой и даже видео. В некоторых случаях качество такого контента не уступает работам, созданным человеком, а порой и превосходит их. Однако не всегда можно визуально отличить творчество ИИ от творчества человека. Инструменты на базе ИИ для генерации контента находят применение в различных областях, включая программирование, переводы, дизайн, образование, право, маркетинг и PR по всему миру.

Правильное использование инструментов на базе ИИ позволяет увеличить скорость работы, способствует профессиональному и творческому развитию человека, а также повышает качество продукции. Однако необходимо помнить, что ИИ — это всего лишь инструмент, который может быть использован как для блага, так и для вреда.

В нашей компании в области маркетинга мы применяем ИИ для генерации идей контента, улучшения стиля написания, проведения исследований и создания иллюстративных материалов. При этом мы всегда следим за работой ИИ и контролируем его воздействие. В «Инферит» мы осознаем, что мы несем ответственность за то, как мы используем ИИ и как он влияет на людей. Этичное применение ИИ является неотъемлемой частью нашей корпоративной культуры. Мы придерживаемся принципов ответственного использования этой технологии и активно участвуем в профильных отраслевых инициативах. В эпоху стремительного роста возможностей ИИ, этические вопросы становятся особенно актуальными.

Искусственный интеллект и информационные конфликты: почему простая маркировка контента уже не способна решить проблему

Маркировка искусственного интеллекта: необходимый шаг в противодействии дипфейкам и манипуляциям

Маркировка искусственного интеллекта предоставляет пользователям возможность сознательного выбора — доверять ли информации, которую они получают. Количество дипфейков (фальшивых видео, аудиозаписей, фотографий и текстов) достигло критических уровней и продолжает расти. Современные технологии не только способствуют массовому созданию фейков, но и обеспечивают их мгновенное распространение, с чем трудно справиться. Это особенно критично в таких чувствительных областях, как новости, реклама и политика, где существует высокий риск манипуляций общественным мнением с помощью недостоверного контента, созданного при помощи ИИ. Немаркированный ИИ-контент представляет целый спектр угроз, начиная от относительно невинного введения пользователей в заблуждение и заканчивая прямой дезинформацией и пропагандой. При этом выявить источник такого контента и привлечь к ответственности его создателей сложно.

Маркировка служит своего рода страховкой для бизнеса и общества, но не является гарантией полной защиты от информационных войн, в которых участвует искусственный интеллект. К сожалению, большинство людей не способны критически осмысливать огромные объемы информации и отделить факты от эмоций — ведь мы не машины. В эпоху информационных войн способность различать факты от манипуляций становится вопросом выживания для общества. Крайне важно обучать людей необходимости проверки информации (развивать медиаграмотность, информационную гигиену) и предоставлять им соответствующие инструменты.

На мой взгляд, это задача государственного масштаба. Одной лишь маркировки clearly not enough. Необходимы масштабные просветительские кампании, направленные на повышение медиаграмотности населения и развитие критического мышления. Работа с молодым поколением в школах и университетах, создание и поддержка образовательных инициатив со стороны коммерческих организаций для старших возрастных групп — все это необходимые шаги для формирования у граждан устойчивых навыков критического восприятия информации и проверки ее достоверности.

Мы все знаем, что нужно чистить зубы утром и вечером. Точно так же мы должны выработать привычку проверять информацию, критически воспринимать сообщения в социальных сетях и следовать четкому алгоритму действий при столкновении с потенциально недостоверным контентом. Эти навыки важны не только в контексте ИИ-сгенерированных материалов, но и для противодействия многим другим информационным угрозам.

Только комплексный подход, включающий технологические, регуляторные и образовательные меры, может помочь нам создать здоровую информационную экосистему, в которой искусственный интеллект служит интересам общества, а не становится инструментом манипуляций и обмана. Необходимо систематически повышать «информационный иммунитет» российского общества.

Человек и ИИ

Регулирование контента, созданного искусственным интеллектом: подходы США, ЕС и Китая

Тема маркировки контента, созданного искусственным интеллектом, активно обсуждается по всему миру. Европейский союз в своем законе об искусственном интеллекте предлагает одну из наиболее проработанных моделей, которая предусматривает классификацию ИИ-систем по четырем категориям риска и устанавливает соответствующие требования, включая информирование пользователей. В США внимание правительства сосредоточено на разработке технических стандартов для отслеживания происхождения контента и выявления манипуляций для борьбы с дезинформацией. В ЕС запрещено использование некоторых ИИ, например, для создания баз данных лиц, аналогичных Clearview AI, или для распознавания эмоций на рабочем месте или в школах. В целом, регулирование контента остается фрагментированным и частичным.

В июне 2023 года Китай объявил, что закон об искусственном интеллекте включен в его законодательную повестку дня. Ожидается, что этот закон будет комплексным и затронет широкий спектр вопросов, связанных с развитием и применением ИИ-технологий. Одним из ключевых аспектов нового регулирования стало требование к провайдерам генеративного ИИ маркировать создаваемый контент специальными водяными знаками. Это направлено на предотвращение обмана или введения в заблуждение общественности, а также на обеспечение возможности отслеживания происхождения ИИ-сгенерированных материалов. При этом закон предусматривает строгие санкции за удаление или сокрытие таких водяных знаков.

Китай осознает, что массовое распространение контента, созданного искусственным интеллектом, может иметь серьезные негативные последствия для государства, включая искажение общественного мнения и подрыв доверия к институтам власти. Кроме того, Китай инвестирует значительные ресурсы в развитие собственных ИИ-технологий, стремясь занять лидирующие позиции в глобальной технологической гонке. В то же время Китай уделяет внимание этическим и социальным аспектам применения ИИ, разрабатывая правила и стандарты, призванные обеспечить ответственное и безопасное использование этих технологий.

Различные онлайн-платформы недавно начали свои собственные инициативы по маркировке. Например, YouTube требует от создателей маркировать реалистичный контент, созданный ИИ, особенно в отношении таких тем, как выборы, конфликты и кризисы в области общественного здравоохранения. Meta также активно работает над маркировкой изображений, созданных ИИ, на своих платформах, таких как Facebook, Instagram и Threads. Компания сотрудничает с партнерами из индустрии для разработки общих технических стандартов, которые позволяют идентифицировать ИИ-сгенерированный контент.

В целом, комбинация государственного регулирования, инициатив онлайн-платформ и повышения осведомленности пользователей представляется наиболее перспективным подходом к решению проблемы маркировки контента, созданного искусственным интеллектом.

Искусственный интеллект и информационные конфликты: почему простая маркировка контента уже не способна решить проблему

Построение эффективной модели регулирования контента, созданного искусственным интеллектом в России: роль государства, бизнеса и общества

Необходимо тщательно изучить международный опыт в этой области, но при этом адаптировать его к нашим реалиям и потребностям. Государство играет ключевую роль в организации и поддержке необходимой инфраструктуры, а также в надзоре за соблюдением установленных правил. Однако полагаться исключительно на сознательность граждан в вопросе маркировки контента было бы наивно, учитывая масштабы потенциальных злоупотреблений и возможные негативные последствия для общества.

Важно избегать излишне жестких и директивных подходов. Попытка маркировать весь контент, созданный искусственным интеллектом, может привести к бюрократическому параличу и замедлить развитие инноваций. На начальном этапе имеет смысл сосредоточиться на тех областях, где риски от недостоверной или манипулятивной информации особенно высоки, включая социальные сети, новостные ресурсы, политическую и коммерческую рекламу.

Проблема потенциальных злоупотреблений и «маркировочного троллинга» требует особого внимания. Нечестные участники рынка могут использовать маркировку для дискредитации конкурентов или введения пользователей в заблуждение. С такими практиками необходимо бороться как на уровне технологий, так и с помощью законодательных мер, предусматривающих ответственность за подобные нарушения.

Государство должно создать систему стимулов, при которой участники рынка будут заинтересованы в добросовестном применении маркировки. Помимо этого, необходима планомерная просветительская работа, направленная на повышение цифровой грамотности и развитие навыков критического мышления у населения. Только через вовлечение всех заинтересованных сторон и комплексный подход мы сможем создать эффективную и сбалансированную модель регулирования контента, созданного искусственным интеллектом.

Маркировка контента — это лишь первый, но очень важный шаг. Наша стратегическая задача заключается в создании информационной среды, где искусственный интеллект будет служить интересам общества и каждого человека, а не использоваться для манипуляций или деструктивных целей. Решить эту задачу можно только совместными усилиями государства, бизнеса и граждан.

Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
()
x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами