Новые риски ChatGPT для кибербезопасности

безопасность chatgpt Безопасность
или

В ноябре OpenAI запустила революционную модель ИИ ChatGPT, и ее возможности поразили миллионы пользователей. Однако у многих вызвало серьезное беспокойство то, что этот инструмент может использоваться злоумышленниками. ChatGPT открывает новые возможности для хакеров, которые могут взломать передовое программное обеспечение для кибербезопасности. Это особенно актуально для сектора, который уже столкнулся с ростом утечек данных на 38% в 2022 году. Поэтому очень важно, чтобы все понимали растущее влияние ИИ и принимали соответствующие меры.

Прежде чем мы сможем найти решения, необходимо определить основные угрозы, связанные с широким использованием ChatGPT. В этой статье рассмотрены новые риски, а также необходимые курсы обучения и инструменты для реагирования специалистов по кибербезопасности.

Фишинговые мошенничества, созданные искусственным интеллектом

В то время как более примитивные версии языковых ИИ были открыты (или доступны для широкой публики) в течение многих лет, ChatGPT, безусловно, является самой продвинутой итерацией на сегодняшний день. В частности, способность ChatGPT так легко общаться с пользователями без орфографических, грамматических и глагольных ошибок создает впечатление, что по другую сторону чата вполне может быть реальный человек. С точки зрения хакера, ChatGPT меняет правила игры.

Отчет об интернет-преступлениях за 2022 год показал, что фишинг является наиболее распространенной ИТ-угрозой. Тем не менее, большинство фишинговых атак легко распознать, так как они часто изобилуют орфографическими ошибками, плохой грамматикой и, как правило, неуклюжими формулировками, особенно те, которые происходят из других стран, где родной язык злоумышленника отличается. ChatGPT позволит хакерам со всего мира свободно владеть языком для поддержки своих фишинговых кампаний.

Руководителям необходимо снабдить свои ИТ-команды инструментами, которые могут определять, что создано ChatGPT, а что создано людьми, специально предназначенными для входящих «холодных» электронных писем. К счастью, технология «ChatGPT Detector» уже существует и, вероятно, будет развиваться вместе с самим ChatGPT. В идеале ИТ-инфраструктура должна интегрировать программное обеспечение для обнаружения ИИ, автоматически проверяющее и помечающее электронные письма, созданные ИИ.

Обман ChatGPT для написания вредоносного кода

ChatGPT может создавать код и другие инструменты компьютерного программирования, но ИИ запрограммирован не генерировать вредоносный код или код, предназначенный для хакерских целей. Если запрашивается код взлома, ChatGPT сообщит пользователю, что его цель — «помочь с полезными и этическими задачами».

Тем не менее, злоумышленники могут обмануть ChatGPT и заставить его сгенерировать хакерский код, используя творческий подход. Примером этого является хакер, который заявил на подпольном хакерском форуме о тестировании чат-бота для создания вредоносного ПО. Если одна такая нить была обнаружена, то можно сделать вывод, что их существует гораздо больше в сети.

Кибербезопасность требует от специалистов надлежащего обучения и ресурсов для борьбы с постоянно растущими угрозами, создаваемыми искусственным интеллектом или иным образом. Они также могут использовать технологии искусственного интеллекта для лучшей защиты от хакерского кода, созданного ИИ.

Несмотря на то, что ChatGPT может стать инструментом для злоумышленников, важно понимать, что он также может стать важным инструментом в арсенале специалистов по кибербезопасности. Поэтому обучение кибербезопасности должно включать инструкции по использованию ChatGPT для предотвращения угроз. Новые возможности создают новые угрозы, поэтому важно изучать их и создавать новые программы обучения, чтобы оставаться впереди.

Регулирование использования возможностей ИИ

Несмотря на то, что ведутся серьезные дискуссии о злоумышленниках, использующих ИИ для взлома программного обеспечения, редко обсуждается возможность взлома самого ChatGPT. Оттуда злоумышленники могут распространять дезинформацию из источника.

Сообщается, что ChatGPT предпринял шаги для выявления политически мотивированных вопросов и избегания ответов на них. Однако, если ИИ взломать и манипулировать им для предоставления информации, которая кажется объективной, но на самом деле является хорошо замаскированной предвзятой информацией или искаженной точкой зрения, то ИИ может стать опасной пропагандистской машиной. Способность скомпрометированного ChatGPT распространять дезинформацию может стать проблемой и может потребовать усиления государственного надзора за передовыми инструментами искусственного интеллекта и такими компаниями, как OpenAI.

Администрация США выпустила «Проект Билля о правах ИИ». Чтобы расширить это, нам нужен надзор, чтобы гарантировать, что OpenAI и другие компании, запускающие продукты генеративного ИИ, регулярно пересматривают свои функции безопасности, чтобы снизить риск их взлома. Кроме того, новые модели ИИ должны требовать порога минимальных мер безопасности, прежде чем ИИ станет открытым. Например, Bing запустила свой собственный генеративный ИИ в начале марта, а Meta завершает разработку собственного мощного инструмента, в который входят другие технологические гиганты.

В свете увеличивающегося потенциала ChatGPT и развивающегося рынка генеративного искусственного интеллекта, специалисты по кибербезопасности должны обдумать сдержки и противовесы, чтобы предотвратить появление громоздкой технологии. Для этого необходимо провести переподготовку сотрудников в области кибербезопасности, усилить регулирующую роль правительства и пересмотреть наше мышление и отношение к ИИ в целом.

Нам следует пересмотреть фундаментальную базу для ИИ, особенно примеры с открытым исходным кодом, такие как ChatGPT. В новом инструменте должно быть фундаментальное «программное ядро», которое запрещает манипулирование. Необходимо устанавливать стандарты, требующие этого, и привлекать разработчиков к ответственности за несоблюдение этих стандартов. Организации уже ввели независимые стандарты, чтобы гарантировать безопасность обменов между различными технологиями, и теперь крайне важно применять те же принципы к генеративному ИИ.

Коммуникация в ChatGPT достигла рекордно высокого уровня, и технологическим лидерам необходимо начать думать о том, что это значит для их команды, компании и общества в целом. В противном случае они не только отстанут от своих конкурентов в принятии и развертывании генеративного ИИ для улучшения результатов бизнеса, но и не смогут предвидеть и защититься от хакеров следующего поколения, которые уже могут манипулировать этой технологией в личных целях. Когда на кону репутация и доход, индустрия должна объединиться, чтобы обеспечить правильную защиту ChatGPT.

Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
()
x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами