Reface розповіли, як нейромережі допомагають на війні і чому росіянам не вдаються діпфейки
Топи української компанії Reface — CTO Олесь Петрів та COO Антон Воловик у інтерв’ю LIGA.Tech розповіли про те, як технології впливають на війну.
Топи української компанії Reface — CTO Олесь Петрів та COO Антон Воловик у інтерв’ю LIGA.Tech розповіли про те, як технології впливають на війну.
Топи української компанії Reface — CTO Олесь Петрів та COO Антон Воловик у інтерв’ю LIGA.Tech розповіли про те, як технології впливають на війну.
Нейромережі та машинне навчання буквально розгорнули новий етап інформаційної та технологічної війни. Однак більшість кейсів їх використання у веденні війни залишаються військовою таємницею, зазначають Reface.
Команда dev запускає YouTube-канал про сильних людей. Дивіться перше відео вже цієї п’ятниці.
Та не секрет, що сьогодні технологія розпізнавання обличчя дозволяє проаналізувати величезну базу фотографій людських облич. Це дає змогу виявляти серед них тих, хто, наприклад, перебуває у розшуку.
Нейромережа пришвидшує пошук людини в певній базі профілів: вона ранжує профілі за подібністю до пошукового фото, а потім жива людина здійснює остаточну ідентифікацію на основі відібраних максимально подібних профілів.
«Риси обличчя на випадкових фотографіях не є достатніми біометричними даними для стовідсоткової ідентифікації людини. Що більша база людей, за якою ведеться пошук та ідентифікація, то точніше працюватиме алгоритм», — пояснює Петрів.
При цьому «ручна» остаточна ідентифікація обов’язкова, вона зменшує відсоток помилки.
Під час війни команда Reface помінтила суттєве занепокоєння щодо створення російською пропагандою діпфейку Зеленського чи інших політиків з метою сіяння хаосу та паніки серед українців
«Але до сьогодні жодного якісного діпфейку, який би справді вплинув на суспільну думку, росія не опублікувала», — каже Воловик.
Пропагандисти частіше вдаються до старих перевірених методів маніпулювання громадською думкою: гри на емоціях, поширення неправдивих текстових повідомлень, маніпуляції фактами та відвертої брехні. Чому, якщо є розвинуті технології?
«Ці застарілі методи працюють найкраще. Тим паче в росії, де люди масово втратили здатність до критичного мислення, і для маніпуляції їхніми думками достатньо звичайних методів, а не діпфейків».
Крім того, створити якісний діпфейк — це довга та кропітка робота. Помітити фейковість відео звичайним оком неможливо, якщо над цим працювали фахівці з машинного навчання, професійний постпродакшен та актори. Швидше, ніж за кілька тижнів, професійний діпфейк не зробиш.
Саме тому недолугий діпфейк Зеленського, який з’явився в мережі в березні, здається дешевим і неправдоподібним. Його видалили з YouTube та Facebook майже відразу після появи.
На початку війни Reface оголосили про розробку алгоритму, який шукатиме місця дислокації та переміщення російських військ. Наразі команда не може розповісти про нього докладніше через причини безпеки та конфіденційності.
«Єдине, чим ми можемо поділитися, то це інформацією про те, що ця ідея започаткувала величезну ініціативу, яка вже вийшла далеко за межі першочергової ідеї та перетворилася на спільноту UA Tech Power із понад 1000 експертів-волонтерів», — каже Петрів.
Зараз ця команда вже створює власні продукти. Це чатботи, застосунки тощо, яких зараз уже понад 100.