🚀💳 Trustee Plus - більше ніж криптогаманець з європейською платіжною карткою. Спробуй 👉

OpenAI вимагає у розробників посвідчення особи для доступу своїх моделей ШІ, щоб уникнути копіювання з боку DeepSeek

OpenAI тепер вимагає від розробників, які хочуть отримати доступ до її найсучасніших моделей штучного інтелекту, пройти верифікацію особи. Посилення безпеки пов’язують із дослідженням Copyleaks, яке вказує на разючу подібність ШІ-моделі китайської DeepSeek на роботу OpenAI.

Залишити коментар
OpenAI вимагає у розробників посвідчення особи для доступу своїх моделей ШІ, щоб уникнути копіювання з боку DeepSeek

OpenAI тепер вимагає від розробників, які хочуть отримати доступ до її найсучасніших моделей штучного інтелекту, пройти верифікацію особи. Посилення безпеки пов’язують із дослідженням Copyleaks, яке вказує на разючу подібність ШІ-моделі китайської DeepSeek на роботу OpenAI.

Офіційно цей крок спрямований на боротьбу зі зловживаннями, проте він також має захистити результати роботи OpenAI від навчання систем штучного інтелекту конкурентів. Про це пише Business Insider.

Нове дослідження компанії Copyleaks, яка спеціалізується на виявленні ШІ-контенту, пропонує докази того, чому OpenAI може діяти саме так. Copyleaks використовувала систему, яка ідентифікує стилістичні «відбитки пальців» основних моделей ШІ, і з її допомогою підрахувала, що 74% результатів роботи китайської моделі DeepSeek-R1 розцінювалися як відповіді від ШІ OpenAI.

Метод Copyleaks також був протестований на інших моделях, включаючи phi-4 від Microsoft та Grok-1 від xAI Ілона Маска. Ці моделі показали майже нульову схожість з OpenAI — 99,3% і 100% відповідно, що свідчить про незалежне навчання. Модель Mixtral від Mistral має певну схожість, але показники DeepSeek різко виділяються, що може вказувати на копіювання.

Дослідження підкреслює, що навіть коли моделям пропонують писати в різних тональностях або форматах, вони все одно залишають за собою помітні стилістичні підписи — як лінгвістичні відбитки пальців. Ці відбитки зберігаються в різних завданнях, темах і підказках, і тепер їх можна з певною точністю відстежити до їхнього джерела. Це має величезне значення для виявлення несанкціонованого використання моделей, дотримання ліцензійних угод і захисту інтелектуальної власності.

Раніше компанія OpenAI заявила, що китайські компанії «постійно» намагаються використати американських конкурентів, щоб удосконалити свої моделі ШІ. В OpenAI зазначили, що виявила докази «дистиляції», які можуть походити від DeepSeek.

Такий метод використовується розробниками для отримання кращої продуктивності на простіших моделях, використовуючи результати роботи більших і потужніших моделей. Це дає їм змогу досягати аналогічних результатів за значно меншу ціну.

Нагадаємо, що DeepSeek — це китайська лабораторія штучного інтелекту, що фінансується в основному компанією High-Flyer Capital Management. Вона стала популярною взимку 2025 року після того, як її чатбот піднявся на вершину чартів Apple App Store.

Мовні моделі DeepSeek, які були навчені за допомогою ефективних обчислювальних методів, змусили багатьох аналітиків і технологів на Заході замислитися над тим, чи зможуть США утримати лідерство в перегонах ШІ й чи збережеться попит на ШІ-чипи.

Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
OpenAI запускає бюджетний API-режим Flex Processing який вдвічі зменшує витрати
OpenAI запускає бюджетний API-режим Flex Processing, який вдвічі зменшує витрати
По темi
OpenAI запускає бюджетний API-режим Flex Processing, який вдвічі зменшує витрати
DeepSeek розробляє новий метод покращення можливостей міркувань LLM: він допоможе орієнтувати ШІ-моделі на людські вподобання
DeepSeek розробляє новий метод покращення можливостей міркувань LLM: він допоможе орієнтувати ШІ-моделі на людські вподобання
По темi
DeepSeek розробляє новий метод покращення можливостей міркувань LLM: він допоможе орієнтувати ШІ-моделі на людські вподобання
OpenAI запустила нові ШІ-моделі міркувань: o3 й o4-mini можуть генерувати відповіді за допомогою інструментів у ChatGPT таких як перегляд вебсторінок написання коду на Python та обробка зображень
OpenAI запустила нові ШІ-моделі міркувань: o3 й o4-mini можуть генерувати відповіді за допомогою інструментів у ChatGPT, таких як перегляд вебсторінок, написання коду на Python та обробка зображень
По темi
OpenAI запустила нові ШІ-моделі міркувань: o3 й o4-mini можуть генерувати відповіді за допомогою інструментів у ChatGPT, таких як перегляд вебсторінок, написання коду на Python та обробка зображень
Читайте також
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
1 коментар
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
Письменники-романісти використовують штучний інтелект для створення своїх творів. Видання про технології The Verge поспілкувалося з письменницею Дженніфер Лепп, яка випускає нову книгу кожні дев’ять тижнів, й дізналося про те, як працює штучний інтелект для написання романів. Наводимо адаптований переклад статті. 

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.