🚀💳 Trustee Plus - більше ніж криптогаманець з європейською платіжною карткою. Спробуй 👉
Олександр КузьменкоШІ
18 квітня 2025, 18:07
2025-04-18
OpenAI вимагає у розробників посвідчення особи для доступу своїх моделей ШІ, щоб уникнути копіювання з боку DeepSeek
OpenAI тепер вимагає від розробників, які хочуть отримати доступ до її найсучасніших моделей штучного інтелекту, пройти верифікацію особи. Посилення безпеки пов’язують із дослідженням Copyleaks, яке вказує на разючу подібність ШІ-моделі китайської DeepSeek на роботу OpenAI.
OpenAI тепер вимагає від розробників, які хочуть отримати доступ до її найсучасніших моделей штучного інтелекту, пройти верифікацію особи. Посилення безпеки пов’язують із дослідженням Copyleaks, яке вказує на разючу подібність ШІ-моделі китайської DeepSeek на роботу OpenAI.
Офіційно цей крок спрямований на боротьбу зі зловживаннями, проте він також має захистити результати роботи OpenAI від навчання систем штучного інтелекту конкурентів. Про це пише Business Insider.
Нове дослідження компанії Copyleaks, яка спеціалізується на виявленні ШІ-контенту, пропонує докази того, чому OpenAI може діяти саме так. Copyleaks використовувала систему, яка ідентифікує стилістичні «відбитки пальців» основних моделей ШІ, і з її допомогою підрахувала, що 74% результатів роботи китайської моделі DeepSeek-R1 розцінювалися як відповіді від ШІ OpenAI.
Метод Copyleaks також був протестований на інших моделях, включаючи phi-4 від Microsoft та Grok-1 від xAI Ілона Маска. Ці моделі показали майже нульову схожість з OpenAI — 99,3% і 100% відповідно, що свідчить про незалежне навчання. Модель Mixtral від Mistral має певну схожість, але показники DeepSeek різко виділяються, що може вказувати на копіювання.
Дослідження підкреслює, що навіть коли моделям пропонують писати в різних тональностях або форматах, вони все одно залишають за собою помітні стилістичні підписи — як лінгвістичні відбитки пальців. Ці відбитки зберігаються в різних завданнях, темах і підказках, і тепер їх можна з певною точністю відстежити до їхнього джерела. Це має величезне значення для виявлення несанкціонованого використання моделей, дотримання ліцензійних угод і захисту інтелектуальної власності.
Раніше компанія OpenAI заявила, що китайські компанії «постійно» намагаються використати американських конкурентів, щоб удосконалити свої моделі ШІ. В OpenAI зазначили, що виявила докази «дистиляції», які можуть походити від DeepSeek.
Такий метод використовується розробниками для отримання кращої продуктивності на простіших моделях, використовуючи результати роботи більших і потужніших моделей. Це дає їм змогу досягати аналогічних результатів за значно меншу ціну.
Нагадаємо, що DeepSeek — це китайська лабораторія штучного інтелекту, що фінансується в основному компанією High-Flyer Capital Management. Вона стала популярною взимку 2025 року після того, як її чатбот піднявся на вершину чартів Apple App Store.
Мовні моделі DeepSeek, які були навчені за допомогою ефективних обчислювальних методів, змусили багатьох аналітиків і технологів на Заході замислитися над тим, чи зможуть США утримати лідерство в перегонах ШІ й чи збережеться попит на ШІ-чипи.
OpenAI запустила нові ШІ-моделі міркувань: o3 й o4-mini можуть генерувати відповіді за допомогою інструментів у ChatGPT, таких як перегляд вебсторінок, написання коду на Python та обробка зображень
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
Письменники-романісти використовують штучний інтелект для створення своїх творів. Видання про технології The Verge поспілкувалося з письменницею Дженніфер Лепп, яка випускає нову книгу кожні дев’ять тижнів, й дізналося про те, як працює штучний інтелект для написання романів. Наводимо адаптований переклад статті.
Хочете повідомити важливу новину? Пишіть у Telegram-бот
Головні події та корисні посилання в нашому Telegram-каналі