Microsoft объясняет странное поведение своего чат-бота в Bing

Microsoft объясняет странное поведение своего чат-бота в Bing

Microsoft объясняет себя, чтобы оправдать иногда странное поведение чат-бота Bing. Причиной этого, по словам ответственной команды, являются длительные сеансы обмена с ИИ.

На прошлой неделе Microsoft запустила своего чат-бота на основе искусственного интеллекта для Bing в своем браузере Edge, о котором с тех пор не утихают новости. Но не всегда по правильным причинам . Первые впечатления были хорошие, очень хорошие, но пользователи стали замечать, что Bing-бот выдавал неверную информацию, ругал пользователей за трату времени и даже демонстрировал довольно «неуравновешенное» поведение. В странном разговоре он отказался выпускать кассеты для «Аватара 2: Водный путь», утверждая, что фильм еще не вышел, потому что еще 2022 год. Бот даже назвал пользователя «неумным и упрямым», кстати, когда тот пытался сказать Бингу, что он был неправ.

Microsoft объясняет себя, чтобы оправдать иногда странное поведение чат-бота Bing

Сегодня Microsoft опубликовала сообщение в блоге, объясняющее, что произошло и как она справляется с такими проблемами. Во-первых, компания из Редмонда признала, что не планирует использовать ИИ Bing для «общего открытия мира и социальных развлечений».

Эти «долгие сеансы чата из 15 или более вопросов» могут вывести систему из строя. «Bing может быть повторяющимся или быстрым/подталкивающим, чтобы давать ответы, которые не обязательно полезны или соответствуют тому тону, который нам нужен», — поясняет компания. По-видимому, это связано с тем, что бот может «забывать» вопрос за вопросом, на который он изначально пытался ответить. Чтобы исправить это, Microsoft может добавить инструмент для сброса контекста поиска или начать с нуля.

Другой вопрос более сложен и интересен: «Модель иногда пытается отвечать или думать в том же тоне, в каком были заданы вопросы, что иногда может привести к нежелательному стилю», — пишет Microsoft. Это требует много взаимодействия, но инженеры думают, что они могут исправить это, предоставив пользователям больше контроля.

Причиной этого, по словам ответственной команды, являются длительные сеансы обмена с ИИ.

По словам Microsoft, несмотря на эти опасения, тестировщики в целом очень довольны результатами поиска Bing AI. Тем не менее, можно добиться большего успеха на «строго привязанных ко времени данных, таких как спортивные результаты в реальном времени». . Наконец, компания также «добавит кнопку, чтобы дать вам больше контроля, чтобы поощрять точность или творческий подход в ответе, в зависимости от вашего запроса».

Служба поддержки Bing хотела бы поблагодарить пользователей за все проведенные ими испытания, которые «помогают сделать продукт лучше для всех». В то же время инженеры говорят, что удивлены тем, что пользователям остается до двух часов, чтобы взаимодействовать с роботом. Несомненно, интернет-пользователям придется тестировать каждую новую итерацию чат-бота целыми днями, все может быть очень интересно.

В сабреддите Bing есть немало примеров того, как новый чат Bing выходит из-под контроля.

Открыть чат в поиске сейчас может быть плохой идеей!

Взято здесь как напоминание о том, что было время, когда крупная поисковая система показывала это в своих результатах. pic.twitter.com/LiE2HJCV2z

— Влад (@vladquant) 13 февраля 2023 г.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *