💳 Trustee Plus — твоя персональна картка європейського банку: 3 хвилини і 10 євро 👉

«Росіяни атакують НАТО багатьма способами, досить системно». Інтерв’ю із СЕО Osavul, який допомагає альянсу та РНБО захищатися

Український стартап Osavul який займається медіааналітикою на основі штучного інтелекту, нещодавно залучив $3 млн. Команда з початку російського вторгнення займається боротьбою з дезінформацією на основі великих даних і штучного інтелекту.

Оставить комментарий
«Росіяни атакують НАТО багатьма способами, досить системно». Інтерв’ю із СЕО Osavul, який допомагає альянсу та РНБО захищатися

Український стартап Osavul який займається медіааналітикою на основі штучного інтелекту, нещодавно залучив $3 млн. Команда з початку російського вторгнення займається боротьбою з дезінформацією на основі великих даних і штучного інтелекту.

Фактчекери можуть відокремити правду від брехні, але Osavul пішов далі. Його спеціалісти навчилися розрізняти, з якими мотивами правда використовується в інформаційному просторі. Бо часто навіть правду (або ж напівправду) можна вміло підмішувати у пропагандистські меседжі. 

Ми поспілкувалися із СЕО Osavul Дмитром Плєшаковим і дізналися, як стартап співпрацює з РНБО, допомагає аналізувати російські кампанії НАТО і як може попереджати бізнеси про загрози, які з віртуальних можуть із часом стати фізичними. 

  — Перше питання: що означає Osavul?

— Тут усе просто. Osavul — це посада в козацькому війську. Офіцерська посада. У якийсь момент ми прочитали, що вони відповідали за розвідку. Тому що в назві є букви OS, які типу open source. 

Ми на початку так це придумали, а потім воно вже прижилось, і ми так і пішли далі. 

— Розкажіть, будь ласка, про вашу початкову історію. Наскільки я знаю, у вас із партнером за бізнесом до Osavul був стартап, який ви продали. І потім якраз почалося вторгнення в Україну та швидко з’явився новий проєкт. Що відбувалося поза лаштунками?

— Насправді між цими подіями багато часу пройшло. Ми продали стартап у 2019 році за $4 млн (Це Captain Growth, інструмент для аналізу реклами у Facebook і Google AdWords — Ред.). А за ці три роки ми з Дмитром (Білашем — Ред.), із моїм партнером, займалися трохи різними речами.

Ми обидва залишилися в компанії, яка нас купила. У нас були зобов’язання по контракту.

— Це ізраїльська компанія, наскільки я знаю?

— Так, вона називалась Perion. І я очолив київський офіс цієї компанії. Це був R&D центр із фокусом на AI. І, власне, я його розбудовував. Дмитро певний час працював теж там, але з іншими завданнями.

Потім Дмитро пішов, він почав займався інвестиціями. Я досить довго там працював, близько трьох років. І було цікаво, ми багато чого робили. У нас досить швидко росла київська команда. Піковий момент було, що я пам’ятаю, — у ній було більше, ніж людей 50.

Я цим займався, власне, до 22-го. У 22-му, на початку року, я вже збирався йти. І відповідно, я був відкритий до того, щоб займатися чимось новим. Але в мене був план — не починати будувати нову компанію. Я хотів трошки відпочити, узяти паузу від підприємства.

І були навіть думки, піти вчитись, у той момент я цікавився AI, з теоретичними засадами, філософськими. Хотів учитися саме на програмі, яка про філософію of mind, філософію of AI.

Не було ніяких передумов, що ми будемо робити нову компанію, принаймні на такій короткій перспективі. Але коли почалося вторгнення, то, звісно, що настрій змінився й з’явилася велика кількість нереалізованих бажань — допомагати в якійсь формі.

Тоді всі волонтерили в різних проявах. Ми теж спочатку були залучені в хаотичних активностях то тут, то там. На початку хтось емейли розсилав росіянам, хтось робив боти для DDOSів. І ми також узяли участь у різних ініціативах.

У якийсь момент з’явився оцей юзкейс з дезінформації. Ми познайомились із людьми з ЦПД, це центр протидії дезінформації, при РНБО. У них була потреба в технологічній допомозі. Ми погодились їм допомогти, з цього почалась наша діяльність.

Спочатку ми були вдвох із Дмитром, потім до нас поступово долучались інші люди. Це була волонтерська історія. Вона досить довго так тривала, у такому форматі, без чітких комітментів. Просто ми всі хотіли робити щось корисне.

Отже, наш перший дизайн-партнер — РНБО ЦПД, якому ми допомагали. Потім у якийсь момент цих дизайн-партнерів стало більше, стали з’являтися інші українські державні організації.

— А що саме ви для них робили? 

— У них не було дієвого способу розуміти, який вплив мають наративи в медіа в часі, як вони змінюються, чи це зростаюча штука, чи спадаюча, а розуміння, як наративи й контр-наративи співіснують. Умовно, якщо вони зробили якусь відповідь на якусь зловмисну історію в медіа, то чи ця відповідь отримала достатні уваги, який баланс сил утворився.

Було й багато інших аспектів, але всі вони були в цілому пов’язані з тематикою інформаційної безпеки, аналізом інформаційних загроз і так далі.

— Тобто ви робили ці завдання якимось технічними тулами, які у вас були тоді в розпорядженні на той момент?

— Ми почали продавати ці рішення як софт. Тому що нам, умовно, було зрозуміло, як це працює. На початку це було якесь волонтерство на рівні того, що тобі дають запит і кажуть «проаналізуй це, дай мені готовий звіт».  Умовно кажучи, можна було б робити Excel-таблички, звіти під кожний запит. Але ми вирішили, що це не прикольно. Прикольно зробити інструмент, яким вони зможуть користуватись та обслуговувати його самостійно. 

У нас виникло певне розуміння того, що на ринку в цьому є невирішена проблема. І стало ясно, що її волонтерськими ресурсами, зусиллями не вирішиш повноцінно. Це велика суттєва проблема, з якою можна боротися комплексно.

— Розкажіть детально про цю суттєву проблему — з цього вона складається?

— З того часу, як ми цим зайнялися, все сильно еволюціонувало, але ось до чого ми прийшли: загалом є три питання, які виникають при аналізі наративів у медіа.

Перше: умовно, хтось поширює інформацію про те, що українська влада некомпетентна, чи вона нелегітимна. Поширює інформацію про те, що треба робити мир. Це певний наратив. Ми повинні це зрозуміти.

Другий рівень — він про те, хто і як це поширює. Це важливо, тому що насправді зловмісна інформація від незловмісної відрізняється саме цим, хто за нею стоїть.

Це, до речі, тема дискусії. Є організації, які фокусуються на верифікації контенту. Вони кажуть, що треба аналізувати контент і розуміти, що є правдою, а що — неправдою. 

Якщо це неправда, то треба робити спростування, треба працювати з фактчекерами. А якщо це правда, то що ми зробимо? Тоді це вже правда й ми не можемо їй протистояти?

Тому ми прийшли до того, що цей підхід не до кінця повний, не до кінця ефективний, бо дуже часто загрозливою є інформація, яка не є неправдою. Вона просто спеціально використана поряд із якомось шматками пропаганди, з використанням різних інструментів. 

Це можуть бути боти, мережі ботів, які працюють за гроші чи іншим чином скоординовані. Це можуть бути державні або пов’язані з державою акаунти, які цим займаються, коли саме держава вписується в ту історію (все починається наприклад, із російського МЗС). Це може бути скомпрометовані інфраструктури, які використовуються для інформаційної атаки, або якісь сайти, по яких можна зрозуміти, що вони насправді належать скомпрометованим особам. 

Якщо ми можемо зрозуміти, що наративи поширюється таким чином, то це дуже важливо. Оце означає, що там є якийсь поганий намір. Є хтось, хто свідомо інвестує гроші в те, щоб цю історію просунути.

— Тобто якщо відбувається щось широкомасштабне, і воно кимось контролюється, розповсюджується за допомогою певних технологіях, то ви можете розуміти, що йде якась інформаційна хвиля, яку хтось спланував?

— Абсолютно так. Тобто дуже важливо розуміти, що це цілеспрямована річ. Це не стихійна річ, яка виникла сама собою. На тому боці дійсно є замовник, є намір, є ресурси, є інструменти, які використовуються.

— Тобто ключове, що ви можете виокремити замовника, з’ясувати, хто він такий?

— Ми намагаємося це робити. Це не завжди можна зробити зі 100% точністю, але ми накопичуємо дані, які дають нам змогу часто атрибутувати якусь компанію до когось. 

Що ми можемо точно зробити? Ми можемо сказати, що це щось, що ми спостерігаємо, є організованою кампанією, у якій є замовник. А далі в нас можуть бути гіпотези, що в нас є якісь ознаки того, що, можливо, це російський уряд або, можливо, це іранський уряд.

Безумовно, ці ознаки не є юридичними доказами, далі з цим уже працюють наші клієнти або юридичні або law enforcement організації, які трансформують ці знання в рішення. 

Далі йде питання впливу. Є якась історія, є наратив, і ми вже зрозуміли, що він спрямований кимось, розкручується. 

Але чи він має вплив? Може бути, наприклад, що в поста було 100 000 лайків. І він виглядає, наче це якась велика штука. Але насправді це все існує в якійсь бульбашці.

Боти один одного полайкали, і реально воно за межі бульбашки не виїжджає. Ми допомагаємо також оцінювати цей вплив і зрозуміти, чи викликає він резонанс в суспільстві.

Треба також розуміти, як люди сприймають інформацію: критично або ж, навпаки, іронічно. Це змінює ступінь впливу. І це важливо розуміти не тільки кількість, а ще якість реакції.

Підсумую: є інформпростір, ми розуміємо, що в ньому відбувається, ми розуміємо, які з цих речей є цілеспрямованими активностями ворогів, ворожено влаштованих авторів, і ми розуміємо, які з них мають більше успіху, а які — менше.

— Можете навести декілька прикладів загроз, які ви відпрацьовували з РНБО? Може, є якісь кейси, де вам вдалося когось ідентифікувати й це допомогло?

— Це складне питання, бо кейсів дуже багато. Щоб дати розуміння масштабу, це як мінімум десятки щотижня, інколи більше. Вони є різного розміру, від величезних компаній до дивних епізодів.

— Може, щось вам запам’яталося?

— Ми про більшість із них не можемо говорити, але є декілька кейсів, про які ми говоримо публічно. Один із свіжих кейсів — дослідження по військовій базі НАТО.

Росіяни атакують НАТО багатьма способами, досить системно. Раніше цього року ми робили спільне дослідження з НАТО, аналізуючи загрози. Воно є у відкритому доступі.

— Які основні наративи ви виявили?

— Наративи про те, що НАТО — некомпетентна організація, що вона повільна й не зможе протидіяти реальним загрозам. Також є твердження про застарілу техніку.

От цікавий кейс: вони розповсюджували інформацію, що в одному з Бредлі, захоплених в Україні, знайшли карту з інформацією про американську військову базу. Це підкріплює наратив про некомпетентність НАТО.

Це аргумент, який може бути використаний у політичній грі, особливо в контексті дебатів про підтримку України.

На цій базі нібито тренують американців до війни з росією, використовуючи російськомовних акторів для симуляції конфлікту.

Наші аналітики перевірили, що наймають акторів із десяти різних мов, а не тільки російськомовних. Це нормальна практика для навчань.

Ця тема зародилося в російському сегменті інтернету (це телеграм, це ВК — мережі, які для американців є темними плямами), а потім підхопили лідери думок на Заході, що поширювало вплив на західну аудиторію. І звісно, що колеги з НАТО хотіли б знати про це якомога швидше.

Росіяни, до речі, мають мережу сайтів, яка називається «Правда», що підхоплює цю інформацію й розповсюджує її в Європі.

— Як саме ви аналізуєте шлях, звідки взявся контент і як він іде?

— Наприклад, ми профайлимо різних акторів, які працюють в інформаційному просторі. Дивимося, як часто вони постять контент про російську дезінформацію.

—  Як ви визначаєте надійність акаунтів?

— Якщо бачимо, що акаунт систематично діє в унісон із певними кампаніями, він може отримати відмітку в нашій системі як скомпрометований, навіть якщо немає прямих доказів.

— Це може бути публічна особа?

— Так, це може бути публічна особа, анонімний телеграм-канал або Tiktok, будь що. Ми аналізуємо їхню поведінку.

Це допомагає розуміти, через кого і за допомогою якої інфраструктури дезінформація поширюється. Є обмежене коло акаунтів, де частина — це боти, частина — куплені персонажі, а частина — люди, які можуть щиро в це вірити.

— Яка була реакція НАТО на конкретні, виявлені випадки дезінформації?

— Цю історію зловмисники поширили в 12 країнах. Ми зловили її на ранньому етапі в росії й повідомили нашим колегам.

— Що далі можна робити з виявленою дезінформацією?

— Можна робити декілька речей. Іноді стратегія — це нічого не робити, якщо проблема незначна. Але для цього потрібні відповідні ввідні дані.

— Як НАТО могла б на дезінформацію?

— Вони можуть проігнорувати або підготувати офіційну позицію. Для цього їм потрібно розуміти масштаб проблеми.

— Яка відповідь може бути?

— Це може бути комунікаційна відповідь, спростування або юридичний крок. Завжди потрібні сильні аргументи для конкретних дій у західних суспільствах. Ми допомагаємо довести зв’язок із країнами, що втручаються у їхні внутрішні справи.

Наприклад, буквально недавно Facebook забанив нарешті Russia Today на своїх платформах. Здається, що скільки часу пішло, щоб це зробити, але насправді з юридичного погляду це складний процес.

І щоб мати достатньо доказів, достатньо аргументів для таких дій у західних суспільствах, де цензура в принципі дуже погано сприймається, потрібні дуже сильні аргументи.

А завдяки даним, які ми надаємо інформаційні кампанії можна підсвітити, довести їхній зв’язок із росією, з Іраном, із Китаєм, із Північною Кореєю, ще з кимось.

Для цієї інформації, мета якої — втручання у внутрішні справи європейської країни, є спеціальний термін в Європі. Він називається FIMI — Foreign Information Manipulation and Interference. Якщо це дійсно воно, то це незаконно.

Якщо це незаконно, за це можна притягнути до відповідальності. Ми допомагаємо такі речі доводити.

— Як ваша волонтерська робота перетворилося на бізнес?

— Ми почали займатися бізнесом у 23-му році, інкорпорували компанію й почали будувати технології.

— Які були перші кроки?

— Зібрали фізичну команду, зарейзили мільйон від українського фонду SMRK.

— Хто ваші клієнти зараз?

— Працюємо з українськими державними агенціями, але не можемо називати їх. Зараз близько 15 організацій використовують наш софт. Також ми почали виходити на ринок B2B-продажів. А для нашого підсилення нещодавно залучили другий раунд інвестицій.

— Скільки у вас зараз людей в команді?

— Наразі в команді працює десь 26–27 осіб.

— Які основні скіли вашої команди? На чому все тримається?

— У нас різні команди з різними спеціалізаціями. Основна технічна команда зосереджена на AI, ML, LLM і NLP. Текст — це наш основний медіум, хоча ми також обробляємо аудіо та плануємо розширити роботу із зображеннями.

— Які основні ролі в технічній команді?

— У нас є AI-інженери, спеціалісти з машинного навчання, дата-інженери. Також є фахівці, які займаються бекендом і фронтендом, хоча їх у нас менше. Дата-інженери особливо важливі, адже вони відповідають за обробку і доступність даних для наших клієнтів і моделей.

— Яким чином ви використовуєте великі мовні моделі?

— Ми працюємо як з опенсорсними моделями, так і з платними. У тих випадках, коли це потрібно, ми тренуємо власні моделі. Ми також створили абстрактний пайплайн, що дає змогу інтегрувати різні компоненти для роботи з великими обсягами даних.

Основний виклик полягає в тому, що нам потрібно проводити аналіз на основі величезних обсягів даних — десятків тисяч або навіть мільйонів статей. Це складно і дорого. Ми активно працюємо над технологією, яка дозволяє знижувати витрати без втрати якості.

— Чи ви вже вийшли на рентабельність?

— Ми операційно прибуткові, оскільки наші проєкти можуть бути прибутковими. Однак на даний момент наш основний фокус — це ріст і розвиток. Тому ми реінвестуємо отримані кошти для подальшого розширення.

— Які ваші плани щодо розвитку на ринку B2B?

— США — це дуже перспективний ринок, особливо для B2B. Проте ми також активно працюємо в Європі. Тут створюється сприятливе регуляторне середовище, яке стимулює розвиток технологій, особливо завдяки новим законам, таким як Digital Service Act та AI Act.

— Які можливості надає європейське регуляторне середовище?

— Регулятори в Європі вимагають від великих платформ бути більш відповідальними за дезінформацію. Це означає, що ми можемо допомогти платформам дотримуватися норм, виявляти дезінформацію та реагувати на інциденти. Таке середовище створює попит на наші рішення, адже воно допомагає підтримувати безпеку інформаційного простору.

— Ви виходите на ринок роботи з іншими бізнесами. Які основні виклики ви бачите для компаній у B2B-сегменті?

— Основний виклик полягає у виявленні ризиків для компаній і розумінні інформаційного поля, у якому вони функціонують. Компанії зацікавлені в розумінні ризиків, що можуть вплинути на їхню діяльність. Наприклад, є багато випадків, коли негативні наративи, які виникають онлайн, призводять до серйозних наслідків офлайн.

— Можете навести конкретний приклад?

— Так, візьмемо, наприклад, ситуацію з Gigafactory Tesla в Німеччині. Кілька місяців тому ця фабрика зазнала нападу з боку активістів, що призвело до збитків у 100 мільйонів доларів. Конфлікт розпочався через статтю в місцевих ЗМІ, яка стверджувала, що Tesla «краде» воду, використовуючи її більше, ніж дозволяють місцеві квоти. Це викликало обурення в місцевих жителів і призвело до організації протестів.

— Як ви допомагаєте компаніям виявляти такі ризики?

— Ми аналізуємо публічні дані та медіа, щоб виявити небезпечні наративи, які можуть призвести до радикалізації людей. Якщо ми бачимо, що в інформаційному полі є ознаки загострення ситуації, ми можемо порадити компанії вжити заходів для запобігання ескалації конфлікту.

Окрім фізичних ризиків, ми також виявляємо кіберризики. Наприклад, якщо з’являються ознаки того, що дані компанії могли бути вкрадені й виставлені на продаж, ми можемо підсвітити цю інформацію нашим клієнтам. Наше завдання — зробити ці ризики видимими на якомога ранніх етапах.

— Останнім часом в українському Facebook можна спостерігати нові жанри контенту із залученням AI, які залучають багато уваги читачів. Я про пости з підтримки українських військових, які можуть набрати мільйони лайків, формуючи навколо себе велику аудиторію. Насправді ж це просто згенеровані AI картинки, а розповсюджують їх боти. Як думаєте, яка може бути мета?

— Це не зовсім та тема, з якою ми працюємо. Але я чув про неї від колег. 

По-перше, формується аудиторія, а потім цій аудиторії можна давати вже інший контент, бо якась частина з цих людей підписується, формується  фан-база, а далі на цю фанбазу можна спрямовувати різні речі.

Це також може бути використано для подальшого просування іншого контенту. Виявляється, що пост може змінити свій зміст після того, як набере певну кількість лайків. Це означає, що контент спочатку може бути безневинним, але згодом може стати пропагандистським, проросійським, коли він уже має достатню аудиторію для розповсюдження.

Алгоритми його далі пушать, а зміст змінився. Ну, і під цей пост зловмисники можуть підписати новий меседж. На кшталт: «скиньте сюди донат».

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментариев пока нет.