Microsoft и OpenAI объявили о создании фонда в размере $2 млн для борьбы с растущими рисками использования искусственного интеллекта и дипфейков для «обмана избирателей и подрыва демократии». Фонд, названный «Фондом социальной устойчивости», призван повысить осведомленность уязвимых сообществ о воздействии искусственного интеллекта и дипфейков, сообщает издание TechCrunch.
По данным ВЦИОМ, в этом году на выборы в 50 странах придут около 2 млрд человек, что вызывает опасения относительно влияния искусственного интеллекта на избирателей, особенно в «уязвимых сообществах», которые могут быть более восприимчивы к дезинформации.
Развитие генеративного искусственного интеллекта, включая такие чат-боты, как ChatGPT, способствовало появлению новой серьезной угрозы, связанной с дипфейками, предназначенными для распространения дезинформации. Эти инструменты доступны и позволяют любому желающему создавать поддельные видео, фотографии или аудиозаписи высокопоставленных политических деятелей.
Избирательная комиссия Индии призвала политические партии избегать использования дипфейков и подобной дезинформации в своих онлайн-кампаниях в преддверии выборов. Крупнейшие технологические компании, включая Microsoft и OpenAI, подписали добровольные обязательства по противодействию подобным рискам и заявили о планах по созданию общей структуры для борьбы с фальшивками, созданными специально для введения избирателей в заблуждение.
Компании, занимающиеся разработкой искусственного интеллекта, также начали бороться с этими рисками, вводя ограничения в свое программное обеспечение. Например, Google заявила, что не позволит своему чат-боту Gemini отвечать на вопросы о выборах, а компания Meta, материнская компания Facebook (запрещена и признана в РФ экстремистской), ограничивает ответы на вопросы, связанные с выборами, через своего искусственного интеллекта-чатбота.
OpenAI запустила новый детектор дипфейков для исследователей дезинформации, призванный помочь выявить фальшивый контент, созданный ее собственным генератором изображений DALL-E, а также присоединилась к руководящему комитету отраслевого органа Коалиции по проверке достоверности и аутентичности контента (C2PA), членами которой уже являются Adobe, Microsoft, Google и Intel.
Новый «Фонд социальной устойчивости» является частью более широкой программы «ответственного» искусственного интеллекта. Microsoft и OpenAI теперь стремятся «развивать образование и грамотность в области искусственного интеллекта среди избирателей и уязвимых сообществ», говорится в блоге компаний.
Это предполагает выдачу грантов нескольким организациям:
- Older Adults Technology Services (OATS),
- Coalition for Content Provenance and Authenticity (C2PA),
- International Institute for Democracy and Electoral Assistance (International IDEA),
- Partnership on AI (PAI).
По словам представителей Microsoft, эти гранты призваны обеспечить лучшее понимание искусственного интеллекта и его возможностей в обществе. Например, OATS, по всей видимости, использует свой грант для проведения обучающих программ, предназначенных для людей в возрасте 50 лет и старше в США и охватывающих «основные аспекты искусственного интеллекта».
«Запуск Фонда социальной устойчивости — это лишь один из шагов, который отражает стремление Microsoft и OpenAI решить проблемы и удовлетворить потребности в сфере грамотности и образования в области искусственного интеллекта», — заявила Тереза Хатсон, вице-президент Microsoft по технологиям и корпоративной ответственности, в своем блоге. «Microsoft и OpenAI будут и дальше преданы этой работе, и мы продолжим сотрудничать с организациями и инициативами, которые разделяют наши цели и ценности».
Ранее компания Microsoft заявила, что в течение двух лет инвестирует $2,9 млрд в расширение своей облачной инфраструктуры и инфраструктуры искусственного интеллекта в Японии, что стало последним событием в серии зарубежных экспансий крупных технологических компаний, направленных на поддержку развития искусственного интеллекта.