Задонать нам часом ⏳

OpenAI только что представил GPT-4, способный анализировать текст и изображения. Как им пользоваться

После месяцев слухов и спекуляций OpenAI представила GPT-4: последнюю разработку в линейке языковых моделей ИИ, работающих в таких программах, как ChatGPT и новый Bing.

Оставить комментарий
OpenAI только что представил GPT-4, способный анализировать текст и изображения. Как им пользоваться

После месяцев слухов и спекуляций OpenAI представила GPT-4: последнюю разработку в линейке языковых моделей ИИ, работающих в таких программах, как ChatGPT и новый Bing.

Компания утверждает, что модель «более креативна и способна для сотрудничества, чем когда-либо прежде» и «может решать сложные проблемы с большей точностью».

Сервис может анализировать как текст, так и изображение, хотя отвечать может только через текст. OpenAI также предупреждает, что система сохраняет много тех же проблем, что и предыдущие языковые модели, включая тенденцию придумывать информацию (или «галюцинации») и способность генерировать насильственный и вредоносный текст.

OpenAI говорит, что уже сотрудничает с рядом компаний, чтобы интегрировать GPT-4 в свои продукты, включая Duolingo, Stripe и Khan Academy.

Новая модель доступна для широкой публики через ChatGPT Plus, ежемесячную подписку OpenAI на ChatGPT в размере 20 долларов США.

В исследовательской публикации в блоге OpenAI утверждается, что разница между GPT-4 и его предшественником GPT-3.5 является «незначительной» в коммуникации.

Генеральный директор OpenAI Сэм Альтман написал в Twitter, что GPT-4 «все еще имеет недостатки, все еще ограничен», но также «все еще кажется более впечатляющим при первом использовании, чем после того, как вы проводите с ним больше времени».

Вот тут скоро будет трансляция для разработчиков.

Читайте главные IT-новости страны в нашем Telegram
Читайте главные IT-новости страны в нашем Telegram
По теме
Читайте главные IT-новости страны в нашем Telegram

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментариев пока нет.