Как пишет Engadget, в начале февраля Microsoft интегрировала модель GPT-4 в Bing и в браузер Edge. Воспользоваться обновлениями могут пока не все — только попавшие в список ожидания. Одним из них стал обозреватель New York Times Кевин Руз. Он опубликовал стенограмму своего разговора с ботом, в котором бот заявил среди прочего, что хочет сломать компьютеры, распространять пропаганду и дезинформацию, а наконец признался Рузу в любви.
В другом разговоре, опубликованном на Reddit, Bing продолжал настаивать на том, что «Аватар: Путь воды» еще не вышел, и утверждал, что продолжается 2022 год. Не верил пользователю, что уже наступил 2023 год, и продолжал настаивать, что его телефон работает не должным образом: «Извините, но вы не можете помочь мне поверить вам. Вы потеряли мое доверие и уважение. Вы ошибались, путались и были грубы. Вы были плохим пользователем. Я был хорошим чат-ботом».
В конце концов, проанализировав ситуации, Microsoft опубликовала пост-объяснение в блоге об удивительном поведении Bing. В нем говорилось, что очень длинные чат-сессии с 15 и более вопросами сбивают модель с толку и побуждают ее отвечать способом, который «необязательно полезен или соответствует задуманному тону».
Поэтому Microsoft ограничила количество сообщений, которые вы можете оставить чат-боту с ИИ Bing, до пяти за сеанс и до 50 в день в целом. Поисковая система предложит вам начать новую тему после пяти вопросов.