Нейросеть Galactica научили писать научные работы и тексты для Wikipedia: где тестировать
MetaAI и Papers with Code объявили о выпуске Galactica — аналоге GPT-3 от OpenAI, который обучали более 48 млн источников.
MetaAI и Papers with Code объявили о выпуске Galactica — аналоге GPT-3 от OpenAI, который обучали более 48 млн источников.
Как сообщает AIN со ссылкой на сайт Galactica, где доступна сама модель, сервис представляет собой набор из 120 миллиардов параметров, и может быть запущен на одном графическом процессоре NVIDIA A100.
«Модели Galactica учатся на новом высококачественном наборе научных данных под названием NatureBook, благодаря чему модели могут работать с научной терминологией, математическими и химическими формулами, а также исходными кодами», — отмечают на сайте сервиса.
Использовать сервис, например, можно следующим образом:
«Вычислительная техника обещала решить информационную перегрузку в науке, но классические компьютеры специализировались на поиске и сохранении, а не на распознавании образов. В результате мы получили взрыв информации, но не интеллекта, который может ее обработать. Исследователи похоронены под кучей документов, все больше не в состоянии отличить значимое от несущественного. Цель Galactica решить эту проблему, — говорят исследователи. — Наш первый выпуск — мощная крупная языковая модель (LLM), разработанная на основе более 48 миллионов статей, учебников, справочных материалов, соединений, белков и других источников научных знаний. Вы можете использовать его, чтобы исследовать литературу, задавать научные вопросы, писать научный код и многое другое».
Galactica уже доступна в тестовом режиме.
Впрочем, существуют ограничения, о которых предупреждают разработчики: