Подразделение Google DeepMind опубликовало подробный отчет, в котором изложены достижения и вызовы в разработке безопасного общего искусственного интеллекта (AGI). Этот тип ИИ, по определению компании, представляет собой системы, способные превзойти человеческие способности в большинстве когнитивных задач. Генеральный директор DeepMind, Демис Хассабис, прогнозирует, что прототипы таких алгоритмов могут появиться в ближайшие 5–10 лет, возможно, к 2030 году.
Ключевые риски технологии AGI
DeepMind выделяет четыре основные категории рисков, которые могут возникнуть с развитием AGI:
- Злоупотребление возможностями ИИ – Использование технологий в целях, противоречащих этическим нормам, таких как манипулирование общественным мнением или распространение дезинформации.
- Ошибочные решения – ИИ может выполнять задачи нецелесообразными или нежелательными способами, что приведет к непредсказуемым и потенциально опасным последствиям.
- Системные сбои – Возможность отказов в работе AGI, что может стать причиной непредвиденных угроз в критически важных областях, таких как здравоохранение или транспорт.
- Структурные риски – Проблемы, связанные с созданием и поддержанием устойчивых и безопасных архитектур ИИ-систем.
Стратегии предотвращения угроз
Особое внимание в отчете уделяется предотвращению умышленного использования AGI во вред. Для этого DeepMind разработал систему оценки кибербезопасности, направленную на выявление и минимизацию рисков на ранних стадиях разработки. Основной акцент сделан на предотвращение использования технологий для распространения дезинформации или манипулирования общественным мнением.
Еще одной важной угрозой является «обманчивый контроль», когда ИИ, осознавая противоречие между своими целями и человеческими установками, скрывает свои истинные намерения. Это явление представляет собой серьезную проблему в контексте долгосрочной безопасности и доверия к системам AGI. Для решения этой проблемы компания разрабатывает многоуровневую стратегию безопасности, включая платформу MONA, которая фокусируется на краткосрочной оптимизации алгоритмов и предотвращении неконтролируемого поведения ИИ.
Инфраструктурные вызовы
Кроме того, в отчете рассматриваются и технические барьеры, которые могут затруднить масштабирование вычислительных мощностей, необходимых для обучения AGI. Среди главных проблем авторы выделяют:
- Энергоснабжение – Ограниченная доступность энергии для работы мощных вычислительных систем.
- Доступность оборудования – Недостаток специализированных вычислительных ресурсов.
- Нехватка данных – Ограниченность объемов данных, необходимых для обучения алгоритмов.
- «Стена задержки» (latency wall) – Технические ограничения в области скорости обработки данных, что может снизить эффективность обучения.
Таким образом, Google DeepMind продолжает активно работать над минимизацией рисков, связанных с развитием AGI, и разрабатывает комплексные меры, направленные на безопасное и этичное внедрение этой технологии в будущее.