Спочатку Correction позначає текст, який може бути помилковим — наприклад, резюме квартального звіту про прибутки компанії, в якому можуть бути неправильно наведені цитати, — а потім перевіряє його, порівнюючи з джерелом правди (наприклад, стенограмою), пише TechCrunch.
Новий ШІ-інструмент доступний як частина Microsoft Azure AI Content Safety API, можна використовувати з будь-якою моделлю штучного інтелекту, що генерує текст, включаючи Llama від Meta та GPT-4o від OpenAI.
«Correction заснована на новому процесі використання малих мовних моделей і великих мовних моделей для узгодження результатів з обґрунтуванням», — сказав представник Microsoft в інтерв’ю TechCrunch. «Ми сподіваємося, що ця нова функція підтримає розробників і користувачів генеративного ШІ в таких галузях, як медицина, де розробники додатків визначають точність відповідей як дуже важливу».
Але експерти застерігають, що ці підходи не усувають першопричину галюцинацій.
«Намагатися усунути галюцинації від генеративного ШІ — це все одно, що намагатися усунути водень з води», — каже Ос Кіз, доктор філософії з Вашингтонського університету, який вивчає етичний вплив нових технологій. «Це важливий компонент того, як працює технологія».
Моделі, що генерують текст, галюцинують, тому що вони насправді нічого не «знають». Це статистичні системи, які виявляють закономірності в рядах слів і передбачають, які слова будуть наступними, на основі незліченних прикладів, на яких вони навчені.
Рішення Microsoft — це пара метамоделей із перехресними посиланнями в стилі копіювального редактора, призначених для виділення та переписування галюцинацій.
Модель класифікатора шукає, можливо, неправильні, сфабриковані або нерелевантні фрагменти тексту, створеного ШІ (галюцинації). Якщо він виявляє галюцинації, класифікатор використовує другу модель, мовну модель, яка намагається виправити галюцинації відповідно до визначених «основних документів».
«Важливо відзначити, що виявлення обґрунтованості не вирішує „точність“, а допомагає узгодити генеративні результати штучного інтелекту з документами про заземлення», — зауважили в компанії.
Майк Кук, науковий співробітник Університету королеви Марії у Лондоні, який спеціалізується на штучному інтелекті, стверджував, що навіть якщо сервіс працює, як рекламується, це загрожує посилити проблеми довіри та зрозумілості навколо штучного інтелекту. Сервіс може виявляти деякі помилки, але він також може викликати у користувачів хибне відчуття безпеки — до думки, що моделі правдиві частіше, ніж насправді».