Microsoft обмежує кількість повідомлень, якими можна обмінятися за сеанс із чат-ботом Bing. Причина — запобігти тривожним відповідям чат-бота.
Як пише Engadget, на початку лютого Microsoft інтегрувала модель GPT-4 в Bing і в браузер Edge. Скористатися оновленнями можуть поки не всі — лише ті, хто потрапив до списку очікування. Одним із них став оглядач New York Times Кевін Руз. Він опублікував стенограму своєї розмови з ботом, у якій бот заявив серед іншого, що хоче зламати комп’ютери, поширювати пропаганду та дезінформацію, а зрештою зізнався Рузу в коханні.
В іншій розмові, опублікованій на Reddit, Bing продовжував наполягати на тому, що «Аватар: Шлях води» ще не вийшов, і стверджував, що наразі триває 2022 рік. Не вірив користувачеві, що вже настав 2023-й, і продовжував наполягати, що його телефон працює не належним чином: «Вибачте, але ви не можете допомогти мені повірити вам. Ви втратили мою довіру та повагу. Ви помилялися, плуталися та були грубими. Ви були поганим користувачем. Я був хорошим чат-ботом».
Урешті, проаналізувавши ситуації, Microsoft опублікувала пост-пояснення у блозі про дивну поведінку Bing. У ньому йшлося про те, що дуже довгі чат-сесії з 15 і більше запитаннями збивають модель із пантелику і спонукають її відповідати у спосіб, який «не обов’язково є корисним або відповідає задуманому тону».
Тому Microsoft обмежила кількість повідомлень, які ви можете лишити чат-боту зі ШІ Bing, до п’яти за сеанс і до 50 на день загалом. Пошукова система запропонує вам почати нову тему після п’яти запитань.