18.05.2024

OpenAI приступила к созданию инструмента, который позволит обойтись без обучения искусственного интеллекта

Компания OpenAI объявила о разработке инструмента, который предоставит создателям контента больше контроля над использованием их материалов для обучения генеративного ИИ. Этот инструмент, получивший название Media Manager, позволит создателям и владельцам контента предоставлять свои работы OpenAI и указывать, как они хотят, чтобы их материалы были включены или исключены из исследований и обучения ИИ, как сообщило издание TechCrunch.

По словам представителей OpenAI, цель состоит в том, чтобы внедрить этот инструмент к 2025 году. В настоящее время компания сотрудничает с создателями, владельцами контента и регулирующими органами для разработки стандарта, возможно, через отраслевой руководящий комитет, к которому она недавно присоединилась.

«Для создания этого уникального инструмента нам потребуются передовые исследования в области машинного обучения, чтобы идентифицировать защищенные авторским правом тексты, изображения, аудио и видео из различных источников и учитывать предпочтения создателей», — пишет OpenAI в своем блоге. — «Со временем мы планируем добавить дополнительные возможности».

Media Manager, каким бы он ни стал в конечной форме, является ответом OpenAI на растущую критику её подхода к разработке ИИ, который в значительной степени опирается на сбор общедоступных данных из Интернета.

Недавно восемь известных американских газет, включая Chicago Tribune, подали иск против OpenAI за нарушение прав интеллектуальной собственности. Они обвинили компанию в краже статей для обучения генеративных моделей ИИ, которые затем были коммерциализированы без выплаты компенсаций и предоставления кредитов публикациям-источникам.

Модели генеративного ИИ, включая те, что разработаны OpenAI, обучаются на большом количестве примеров, которые обычно берутся с публичных сайтов и наборов данных. OpenAI и другие поставщики генеративного ИИ утверждают, что добросовестное использование — юридическая доктрина, позволяющая использовать произведения, защищенные авторским правом, для создания вторичных творений, если они являются преобразующими, — защищает их практику сбора публичных данных для обучения моделей. Однако с этим согласны не все.

OpenAI недавно заявила, что без материалов, защищенных авторским правом, невозможно создать полезные модели ИИ. В попытке успокоить критиков и защитить себя от будущих исков компания предприняла шаги для удовлетворения интересов создателей контента. В прошлом году OpenAI позволила художникам «отказаться» от использования их работ и удалить их из наборов данных, используемых для обучения моделей, генерирующих изображения.

Кроме того, компания позволяет владельцам сайтов указывать в файле robots.txt, который содержит инструкции для веб-сканеров, можно ли использовать контент с их сайта для обучения моделей ИИ. OpenAI также продолжает заключать лицензионные соглашения с крупными владельцами контента, включая новостные организации, медиатеки и сайты вопросов и ответов, такие как Stack Overflow.

Некоторые художники описали процесс отказа от использования изображений, требующий отправки отдельных копий каждого изображения для удаления вместе с описанием, как обременительный. По сообщениям, OpenAI платит относительно мало за лицензирование контента. Компания признает, что текущие решения не учитывают случаи, когда работы авторов цитируются, ремикшируются или репостятся на платформах, которые они не контролируют.

Помимо OpenAI, несколько сторонних организаций работают над созданием универсальных инструментов для проверки подлинности и отказа от использования контента для генеративного ИИ. Стартап Spawning AI, среди партнеров которого Stability AI и Hugging Face, предлагает приложение для идентификации и отслеживания IP-адресов ботов, чтобы блокировать попытки скрейпинга, а также базу данных, в которой художники могут зарегистрировать свои работы для запрета их использования поставщиками, соблюдающими такие запросы.

Steg.AI и Imatag помогают авторам устанавливать право собственности на свои изображения путем нанесения водяных знаков, незаметных для человеческого глаза. Проект Nightshade, разработанный Чикагским университетом, «отравляет» данные изображений, делая их бесполезными или вредными для обучения моделей ИИ.

Ранее Financial Times заключила сделку с OpenAI, в рамках которой контент издания будет использоваться для обучения систем искусственного интеллекта. Сумма контракта, являющегося последним соглашением между OpenAI и новостными издателями, не разглашается. По условиям сделки, пользователи ChatGPT будут получать краткие изложения и цитаты из публикаций FT, а также ссылки на статьи в ответ на соответствующие запросы.

Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами