16.06.2024

OpenAI расформировала группу специалистов по безопасности, которая занималась предотвращением угрозы «вымирания человечества» от искусственного интеллекта

OpenAI распустила свою команду, занимавшуюся долгосрочными рисками искусственного интеллекта, менее чем через год после её создания. Уходящий руководитель предупредил, что вопросы безопасности в компании начали уступать место фокусу на выдающихся продуктах.

Компания расформировала команду «Superalignment», которой поручили разработку мер безопасности для передовых систем общего интеллекта (AGI), способных вызвать угрозу для человечества или даже привести к его исчезновению.

Источник этой информации, журнал Wired, сообщил о роспуске команды вскоре после ухода Ильи Суцкевера и Яна Лейке из OpenAI. Они заявили об уходе вскоре после того, как компания представила обновленную версию ChatGPT, способную вести диалоги и переводить языки в реальном времени. Этот шаг сравнили с сюжетом научно-фантастического фильма 2013 года «Она», где речь идет о сверхразумном искусственном интеллекте.

На фоне ухода Лейке и Суцкевера известный актер и продюсер Тайлер Перри поделился своими мыслями о Sora от OpenAI. Перри, рассматривавший планы на расширение своей продюсерской студии в Атланте, отметил, что потенциал искусственного интеллекта впечатляет, так как он снижает необходимость в больших декорациях и выездах на съемочные площадки.

Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами