04.03.2023

Чат-бот Bing научился генерировать картинки из символов ASCII, разработчики в Microsoft это не закладывали в программу

Тестеры чат-бота Bing обнаружили, что ИИ-сервис научился генерировать картинки из символов ASCII по запросу.

Пока что не все примеры ASCII-графики от чат-бота Bing понятны, но ИИ учится и выдаёт с каждым разом более достойную версию в качестве ответа на запрос. Котики и снеговик на ответах ниже.

Чат-бот Bing научился генерировать картинки из символов ASCII, разработчики в Microsoft это не закладывали в программу

После этих проб пера в роли художника ASCII-графики глава Microsoft по рекламе и веб-сервисам Михаил Парахин заявил, что пользователи действительно научили ИИ новой функции.


7 февраля Microsoft представила новые версии поисковика Bing и браузера Edge с использованием ИИ и открыла регистрацию на доступ к новой версии поисковой системы Bing на базе чат-бота ChatGPT.

С 11 февраля новая версия поисковика Bing на базе ChatGPT от Microsoft стала доступна для части пользователей в рамках тестирования версии ИИ-сервиса для ПК. Пользователи, которые ранее зарегистрировались в программе тестирования Bing с чат-ботом ChatGPT, стали получать приглашения на участие в проекте с просьбой присылать обратную связь по использованию новой модели поисковой системы.

Профильные эксперты после нескольких дней тестирования нового Bing с чат-ботом рассказали, что приложении с ИИ работает довольно хорошо, его поисковые ответы точны, но иногда система может реагировать на запросы очень медленно. Например, на создание ответов у неё уходит от десяти до двадцати секунд, а на завершение ответа — ещё тридцать секунд. Обычный поисковик в интернете тратит на поиск ответа менее секунды.

Пользователи выяснили, что чат-бот под кодовым именем Sydney в новом Bing может впадать в депрессию, думать что сейчас 2022 года, терять память о прошлых сессиях и фантазировать в ответах.

В итоге Microsoft ограничила тестовый доступ к чат-боту Bing в сутки на пользователя, чтобы ИИ нельзя было вывести из себя. Также разработчики запретили чат-боту Bing проявлять чувства, но потом решили оставить на усмотрение пользователя возможность выбора режима общения с чат-ботом.

Источник
Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
()
x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами