💳 Trustee Plus — твоя персональна картка європейського банку: 3 хвилини і 10 євро 👉
Наталя ХандусенкоGameDev
8 листопада 2023, 10:31
2023-11-08
Модератори Xbox використовують ШІ для фільтрації користувацького вмісту. Як це працює і чи є результати
7 листопада Microsoft оприлюднила свій третій Звіт про прозорість Xbox, який є першим, що містить розділ про «покращення модерації вмісту та безпеки платформи за допомогою ШІ».
Для забезпечення безпеки онлайн-спільноти Xbox, компанія використовує два інструменти на основі ШІ: Community Sift та Turing Bletchley v3.
Community Sift
Community Sift — це система модерації вмісту на основі штучного інтелекту, створена дочірньою компанією Microsoft TwoHat. Вона оцінює звіти гравців, щоб визначити, які з них потребують додаткової уваги з боку людини-модератора.
Відповідно до звіту Microsoft, серед мільярдів людських взаємодій, які система Community Sift відфільтрувала цього року, є понад 36 млн звітів гравців Xbox 22 мовами.
Turing Bletchley v3
Turing Bletchley v3 — багатомовна модель та оновлена версія інструменту, який Microsoft вперше запустив у 2021 році.
За словами компанії, ця модель автоматично сканує всі створені користувачем зображення на платформі Xbox, включаючи користувацькі Gamerpics та інші зображення профілю. Тоді система Bletchley використовує «свої світові знання, щоб зрозуміти багато нюансів щодо того, які зображення прийнятні на основі стандартів спільноти на платформі Xbox», передаючи будь-який підозрілий вміст у чергу для модерації людиною.
Bletchley сприяла блокуванню 4,7 млн зображень у першій половині 2023 року, що на 39% більше, ніж за попередні шість місяців. Це зменшення Microsoft пояснює своїми інвестиціями в штучний інтелект.
Також dev.ua повідомляв, що Microsoft уклала багаторічне партнерство з компанією Inworld AI над розробленням інструментів для Xbox, які дозволять розробникам створювати персонажів, історії та квести зі штучним інтелектом.