👁️👁️ 300 000 криптанів встановили собі Trustee Plus - гаманець з криптокарткою. Чого чекаєш ти? 👉

Ризики штучного інтелекту реальні, але ними можна керувати. 5 висновків Білла Гейтса про проривну інновацію, що захоплює світ

Ризики, створені штучним інтелектом, можуть здаватися надзвичайними. Що станеться з людьми, які втратять роботу через розумну машину? Чи може ШІ вплинути на результати виборів? Що, якщо майбутній ШІ вирішить, що люди йому більше не потрібні, і захоче нас позбутися? Міліардер та засновник Microsoft Білл Гейтс описав свої думки з цього приводу у колонці на GatesNotes.

Залишити коментар
Ризики штучного інтелекту реальні, але ними можна керувати. 5 висновків Білла Гейтса про проривну інновацію, що захоплює світ

Ризики, створені штучним інтелектом, можуть здаватися надзвичайними. Що станеться з людьми, які втратять роботу через розумну машину? Чи може ШІ вплинути на результати виборів? Що, якщо майбутній ШІ вирішить, що люди йому більше не потрібні, і захоче нас позбутися? Міліардер та засновник Microsoft Білл Гейтс описав свої думки з цього приводу у колонці на GatesNotes.

Є вагомі підстави вважати, що ми можемо з ними впоратися: Це не перший випадок, коли велика інновація призводить до появи нових загроз, які необхідно контролювати. Ми робили це і раніше.

Чи то поява автомобілів, чи то поява персональних комп’ютерів та Інтернету, люди переживали інші трансформаційні моменти і, незважаючи на  турбулентність, в підсумку виходили з них у кращому становищі. Невдовзі після того, як перші автомобілі з’явилися на дорогах, сталася перша автомобільна аварія. Але ми не заборонили автомобілі — ми встановили обмеження швидкості, стандарти безпеки, вимоги до ліцензування, закони про водіння в нетверезому стані та інші правила дорожнього руху.

Зараз ми перебуваємо на ранній стадії ще однієї глибокої зміни — епохи штучного інтелекту. Це схоже на ті непевні часи перед введенням обмежень швидкості та ременів безпеки. ШІ змінюється так швидко, що не зрозуміло, що саме станеться далі. Ми не знаємо, як працює нинішня технологія, як люди будуть використовувати її з поганими намірами, і як ШІ змінить нас як суспільство і як особистостей.

У такий момент цілком природно відчувати тривогу. Але історія показує, що можна вирішити проблеми, створені новими технологіями.

З усього, що вже написано про ризики ШІ, а написано дуже багато, ясно одне: ніхто не знає всіх відповідей. Інша річ, яка мені зрозуміла, це те, що майбутнє ШІ не таке похмуре, як думають деякі люди, і не таке райдужне, як думають інші. Ризики реальні, але я оптимістично налаштований, що ними можна керувати. Розглядаючи кожну проблему, я повернуся до кількох тем.

Багато проблем, спричинених ШІ, мають історичний прецедент. Наприклад, він матиме великий вплив на освіту, як і ручні калькулятори кілька десятиліть тому, або недавній дозвіл на використання комп’ютерів у класі. Ми можемо вчитися на тому, що працювало в минулому.

Багато проблем, спричинених ШІ, також можна вирішити за допомогою ШІ.
Нам потрібно буде адаптувати старі закони і прийняти нові — так само, як існуючі закони проти шахрайства довелося адаптувати до онлайн-світу.

Я не розглядаю, що станеться, коли ми розробимо штучний інтелект, здатний вивчити будь-який предмет або завдання, на відміну від сьогоднішніх штучних інтелектів, створених спеціально для цього.

Незалежно від того, досягнемо ми цієї точки через десятиліття чи століття, суспільству доведеться рахуватися з глибокими питаннями. Що, якщо супер ШІ встановить свої власні цілі? Що, якщо вони суперечитимуть цілям людства? Чи варто взагалі створювати супер ШІ?

Ось найбільш нагальні виклики, пов’язані з ШІ.

Зміст

Фейки і дезінформація

Ідея про те, що технології можна використовувати для поширення брехні та неправди, не нова. Люди робили це за допомогою книг і листівок протягом століть. З появою текстових процесорів, лазерних принтерів, електронної пошти та соціальних мереж це стало набагато простіше.

Штучний інтелект бере проблему фальшивого тексту і розширює її, дозволяючи практично будь-кому створювати фальшиві аудіо та відео, відомі як «глибокі фейки». Якщо ви отримаєте голосове повідомлення, схоже на голос вашої дитини: «Мене викрали, будь ласка, надішліть $1000 на цей банківський рахунок протягом наступних 10 хвилин і не телефонуйте в поліцію», це матиме жахливий емоційний вплив, набагато сильніший, ніж електронний лист, в якому йдеться про те ж саме.

У більш широкому масштабі згенеровані штучним інтелектом глибокі фейки можуть бути використані для спроб вплинути на результати виборів. Звичайно, щоб посіяти сумніви щодо законного переможця виборів, не потрібні складні технології, але штучний інтелект зробить це простіше.

Вже існують фальшиві відео, які містять сфабриковані кадри з відомими політиками. Уявіть, що вранці в день великих виборів відео, на якому один з кандидатів грабує банк, стає вірусним. Воно несправжнє, але новинні ЗМІ та кампанія витрачають кілька годин, щоб довести це. Скільки людей побачать це відео і змінять свій голос в останню хвилину? Це може перехилити шальки терезів.

Коли співзасновник OpenAI Сем Альтман нещодавно виступав перед комітетом Сенату США, сенатори з обох партій зосередилися на впливі ШІ на вибори та демократію. Я сподіваюся, що ця тема продовжить займати важливе місце на порядку денному.

Ми, безумовно, не вирішили проблему дезінформації та фейків. Але дві речі змушують мене бути обережним оптимістом. По-перше, це те, що люди здатні навчитися не сприймати все за чисту монету. Протягом багатьох років користувачі електронної пошти потрапляли на шахрайські схеми, коли хтось, видаючи себе за нігерійського принца, обіцяв велику винагороду в обмін на те, щоб поділитися номером вашої кредитної картки. Але з часом більшість людей навчилися перевіряти такі листи двічі. Оскільки шахраї ставали все більш витонченими, змінювалися і їхні цілі. Нам потрібно буде наростити такі ж м’язи для боротьби з глибокими підробками.

Інша річ, яка дає мені надію, — це те, що штучний інтелект може допомогти ідентифікувати глибокі фейки, а також створювати їх. Наприклад, Intel розробила детектор глибоких фейків, а урядова агенція DARPA працює над технологією, яка визначатиме, чи були маніпуляції з відео або аудіо.

Це буде циклічний процес: хтось знаходить спосіб виявити фейк, хтось з’ясовує, як йому протидіяти, хтось розробляє контрзаходи і так далі. Це не буде ідеальний успіх, але й безпорадними ми не будемо.

Кібербезпека

Штучний інтелект полегшує здійснення атак на людей та уряди.
Сьогодні, коли хакери хочуть знайти вразливі місця в програмному забезпеченні, які можна використати, вони роблять це шляхом грубого перебору коду, який б'є по потенційних слабких місцях, поки не знайдуть спосіб проникнути всередину. Це передбачає проходження багатьох глухих кутів, а це означає, що потрібен час і терпіння.

Експерти з безпеки, які хочуть протистояти хакерам, повинні робити те ж саме. Кожен патч для програмного забезпечення, який ви встановлюєте на свій телефон або ноутбук, — це багато годин пошуку людьми як з добрими, так і з поганими намірами.

Моделі штучного інтелекту прискорять цей процес, допомагаючи хакерам писати більш ефективний код. Вони також зможуть використовувати публічну інформацію про людей, наприклад, де вони працюють і хто їхні друзі, для розробки фішингових атак, які будуть більш досконалими, ніж ті, які ми бачимо сьогодні.

Хороша новина полягає в тому, що ШІ можна використовувати як в хороших, так і в поганих цілях. Урядові та приватні команди безпеки повинні мати найновіші інструменти для пошуку та виправлення недоліків безпеки, перш ніж злочинці зможуть ними скористатися.

Я сподіваюся, що індустрія безпеки програмного забезпечення розширить роботу, яку вони вже проводять у цьому напрямку — це має бути їхнім головним завданням.

Ось чому ми також не повинні намагатися тимчасово утримати людей від впровадження нових розробок у сфері ШІ, як дехто пропонує. Кіберзлочинці не припинять створювати нові інструменти. Так само як і люди, які хочуть використовувати ШІ для розробки ядерної зброї та біологічних атак. Зусилля, спрямовані на те, щоб зупинити їх, повинні продовжуватися в тому ж темпі.

На глобальному рівні існує пов’язаний з цим ризик: гонка озброєнь за ШІ, який може бути використаний для розробки і запуску кібератак проти інших країн. Кожен уряд хоче мати найпотужнішу технологію, щоб стримувати атаки своїх супротивників. Цей стимул не дати нікому випередити себе може спровокувати гонку зі створення все більш небезпечної кіберзброї. Всім буде гірше.

Це страшна думка, але у нас є історія, яка нас направляє. Хоча світовий режим ядерного нерозповсюдження має свої недоліки, він запобіг тотальній ядерній війні, якої так боялося моє покоління, коли ми росли. Уряди повинні розглянути можливість створення глобального органу з питань ШІ, подібного до Міжнародного агентства з атомної енергії.

ШІ забере у людей роботу

У найближчі кілька років основний вплив ШІ на роботу полягатиме в тому, що він допоможе людям виконувати свою роботу ефективніше. Це буде справедливо незалежно від того, чи працюють вони на заводі, чи в офісі, обробляючи торгові дзвінки та кредиторську заборгованість. Врешті-решт, ШІ буде настільки добре висловлювати ідеї, що зможе писати ваші електронні листи і керувати вашою поштовою скринькою за вас. Ви зможете написати запит простою англійською або будь-якою іншою мовою і створити змістовну презентацію своєї роботи.

Як я стверджував у своєму лютневому дописі, для суспільства добре, коли продуктивність зростає. Це дає людям більше часу на інші справи, як на роботі, так і вдома. І попит на людей, які допомагають іншим — наприклад, викладають, доглядають за пацієнтами та підтримують літніх людей — ніколи не зникне. Але це правда, що деякі працівники потребуватимуть підтримки та перекваліфікації, оскільки ми здійснюємо перехід до робочих місць, оснащених штучним інтелектом. Це роль урядів і бізнесу, і їм потрібно буде добре нею керувати, щоб працівники не залишилися без роботи — щоб уникнути таких порушень у житті людей, які сталися під час занепаду виробничих робочих місць у Сполучених Штатах.

Крім того, не варто забувати, що це не перший випадок, коли нова технологія спричиняє значні зміни на ринку праці.

Я не думаю, що вплив штучного інтелекту буде таким же драматичним, як промислова революція, але він, безумовно, буде настільки ж значним, як і поява персонального комп’ютера.

Текстові редактори не покінчили з офісною роботою, але змінили її назавжди. Роботодавці та працівники повинні були адаптуватися, і вони це зробили. Зміна, спричинена ШІ, буде нерівним переходом, але є всі підстави вважати, що ми зможемо зменшити руйнівний вплив на життя людей та їхні засоби до існування.

ШІ успадковує наші упередження і вигадує речі

Галюцинації — термін для позначення того, що ШІ впевнено робить якесь твердження, яке просто не відповідає дійсності, — зазвичай трапляються через те, що машина не розуміє контексту вашого запиту. Попросіть ШІ написати коротку історію про відпустку на Місяці, і він може дати вам дуже вигадливу відповідь. Але попросіть його допомогти вам спланувати поїздку до Танзанії, і він може спробувати відправити вас до готелю, якого не існує.

Інший ризик, пов’язаний зі штучним інтелектом, полягає в тому, що він відображає або навіть погіршує існуючі упередження щодо людей певної гендерної ідентичності, раси, етнічної приналежності і так далі.

Щоб зрозуміти, чому виникають галюцинації та упередження, важливо знати, як працюють найпоширеніші моделі штучного інтелекту. По суті, це дуже складні версії коду, який дозволяє вашому поштовому додатку передбачати наступне слово, яке ви збираєтеся ввести.

Вони сканують величезні обсяги тексту — в деяких випадках майже все, що доступне в Інтернеті, — і аналізують його, щоб знайти закономірності в людській мові.

Коли ви ставите запитання штучному інтелекту, він дивиться на слова, які ви використали, а потім шукає фрагменти тексту, які часто асоціюються з цими словами. Якщо ви пишете «перерахувати інгредієнти для млинців», він може помітити, що слова «борошно, цукор, сіль, розпушувач, молоко і яйця» часто з’являються разом з цією фразою. Тоді, ґрунтуючись на тому, що він знає про порядок, у якому ці слова зазвичай з’являються, він генерує відповідь. (Моделі штучного інтелекту, які працюють таким чином, використовують так званий трансформатор. GPT-4 — одна з таких моделей).

Цей процес пояснює, чому ШІ може відчувати галюцинації або здаватися упередженим. У нього немає контексту для запитань, які ви ставите, або речей, які ви йому розповідаєте. Якщо ви скажете йому, що він зробив помилку, він може відповісти: «Вибачте, я надрукував це неправильно». Але це галюцинація — вона нічого не друкувала. Він так каже лише тому, що відсканував достатньо тексту, щоб знати, що «Вибачте, я помилився» — це речення, яке люди часто пишуть після того, як хтось їх виправляє.

Так само моделі ШІ успадковують будь-які упередження, закладені в тексті, на якому вони навчаються. Якщо людина багато читає, скажімо, про лікарів, і в тексті здебільшого згадуються лікарі-чоловіки, то у своїх відповідях вона припускатиме, що більшість лікарів — чоловіки.

Хоча деякі дослідники вважають, що галюцинації є вродженою проблемою, я з цим не згоден. Я оптимістично налаштований, що з часом ШІ-моделі можна буде навчити відрізняти факти від вигадок. OpenAI, наприклад, проводить багатообіцяючу роботу в цьому напрямку.

Над проблемою упередженості працюють й інші організації, зокрема Інститут Алана Тюрінга та Національний інститут стандартів і технологій. Один з підходів полягає в тому, щоб вбудувати в ШІ людські цінності і міркування вищого рівня. Це аналогічно тому, як працює людина, що усвідомлює себе: Можливо, ви вважаєте, що більшість лікарів — чоловіки, але ви достатньо свідомі цього припущення, щоб розуміти, що вам потрібно навмисно боротися з ним. ШІ може діяти подібним чином, особливо якщо моделі розробляються людьми з різним досвідом.

Нарешті, кожен, хто використовує ШІ, повинен усвідомлювати проблему упередженості та бути поінформованим користувачем. Есе, яке ви попросите ШІ написати, може бути пронизане як упередженнями, так і фактичними помилками. Вам потрібно перевірити упередженість вашого ШІ, а також свою власну.

Учні не будуть вчитися писати, бо ШІ робитиме цю роботу за них

Багато викладачів стурбовані тим, як ШІ може зашкодити їхній роботі зі студентами. У той час, коли будь-хто з доступом до Інтернету може використовувати ШІ для написання пристойного першого начерку есе, що завадить учням здавати його як власну роботу?

Вже існують інструменти штучного інтелекту, які вчаться визначати, чи було щось написано людиною, чи комп’ютером, тож вчителі можуть визначити, коли їхні учні не виконують власну роботу. Але деякі вчителі не намагаються заборонити своїм учням використовувати штучний інтелект у письмовій роботі — вони навіть заохочують це.

У січні вчителька англійської мови зі стажем Шері Шилдс написала статтю в Education Week про те, як вона використовує ChatGPT у своєму класі. Він допомагає її учням у всьому — від початку роботи над есе до написання конспектів і навіть надання зворотного зв’язку щодо їхньої роботи.

«Вчителям доведеться прийняти технологію штучного інтелекту як ще один інструмент, до якого мають доступ учні, — написала вона. — Так само, як колись ми вчили учнів, як правильно здійснювати пошук в Google, вчителі повинні розробити чіткі уроки про те, як бот ChatGPT може допомогти в написанні есе. Визнання існування штучного інтелекту та допомога учням у роботі з ним може революціонізувати наш підхід до викладання».

Не кожен вчитель має час на вивчення та використання нового інструменту, але такі педагоги, як Шері Шилдс, переконують, що ті, хто має час, отримають багато користі.

Це нагадує мені часи, коли електронні калькулятори набули широкого розповсюдження в 1970-х і 1980-х роках. Деякі вчителі математики хвилювалися, що учні перестануть вчитися виконувати базові арифметичні дії, але інші прийняли нову технологію і зосередилися на мисленнєвих навичках, що стоять за арифметикою.

Є ще один спосіб, як штучний інтелект може допомогти з письмом і критичним мисленням. Особливо на початковому етапі, коли галюцинації та упередження все ще є проблемою, освітяни можуть доручити ШІ генерувати статті, а потім працювати зі своїми учнями над перевіркою фактів. Освітні некомерційні організації, такі як Khan Academy і OER Project, які я фінансую, пропонують вчителям і учням безкоштовні онлайн-інструменти, які роблять великий акцент на перевірці тверджень. Небагато навичок є більш важливими, ніж вміння відрізняти правду від брехні.

Нам потрібно переконатися, що освітнє програмне забезпечення допомагає подолати розрив у навчальних досягненнях, а не погіршує їх. Сучасне програмне забезпечення здебільшого орієнтоване на розширення можливостей учнів, які вже мають мотивацію. Воно може розробити для вас навчальний план, вказати вам на хороші ресурси та перевірити ваші знання. Але воно ще не знає, як залучити вас до предмета, який вас не цікавить. Це проблема, яку розробникам доведеться вирішити, щоб студенти всіх типів могли скористатися перевагами штучного інтелекту.

Що буде далі?

Я вважаю, що є більше причин для оптимізму, ніж для недовіри, що ми зможемо управляти ризиками ШІ, максимізуючи його переваги. Але нам потрібно рухатися швидко.

Урядам необхідно накопичувати досвід у сфері штучного інтелекту, щоб вони могли створювати обґрунтовані закони і правила, які б відповідали цій новій технології. Їм доведеться боротися з дезінформацією і фейками, загрозами безпеці, змінами на ринку праці та впливом на освіту. Наведемо лише один приклад: Закон повинен чітко визначати, які види використання «глибоких фейків» є законними, і як їх слід маркувати, щоб кожен розумів, коли те, що він бачить або чує, не є справжнім.

Політичні лідери повинні бути готовими до поінформованого, вдумливого діалогу зі своїми виборцями. Їм також потрібно буде вирішити, в якій мірі співпрацювати з іншими країнами в цих питаннях, а в якій — діяти поодинці.

У приватному секторі компанії, що займаються розробкою ШІ, повинні виконувати свою роботу безпечно і відповідально. Це включає в себе захист приватного життя людей, забезпечення того, щоб їхні моделі ШІ відображали основні людські цінності, мінімізацію упередженості, поширення переваг серед якомога більшої кількості людей і запобігання використанню технології злочинцями або терористами. Компаніям у багатьох секторах економіки потрібно буде допомогти своїм працівникам перейти на робоче місце, орієнтоване на ШІ, щоб ніхто не залишився позаду. А клієнти завжди повинні знати, коли вони взаємодіють зі штучним інтелектом, а не з людиною.

Насамкінець, я закликаю всіх стежити за розвитком штучного інтелекту якомога більше. Це найбільш трансформаційна інновація, яку будь-хто з нас побачить у своєму житті, і здорова суспільна дискусія залежатиме від того, чи всі будуть обізнані з технологією, її перевагами та ризиками. Переваги будуть величезними, а найкраща причина вважати, що ми можемо керувати ризиками, полягає в тому, що ми вже робили це раніше.

Топ-20 курсів і сертифікацій які допоможуть опанувати штучний інтелект
Топ-20 курсів і сертифікацій, які допоможуть опанувати штучний інтелект
По темi
Топ-20 курсів і сертифікацій, які допоможуть опанувати штучний інтелект
Штучний інтелект визначив скільки важить лідер Північної Кореї Кім Чен Ин
Штучний інтелект визначив, скільки важить лідер Північної Кореї Кім Чен Ин 
По темi
Штучний інтелект визначив, скільки важить лідер Північної Кореї Кім Чен Ин
Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
Читайте також
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
Письменники-романісти використовують штучний інтелект для створення своїх творів. Видання про технології The Verge поспілкувалося з письменницею Дженніфер Лепп, яка випускає нову книгу кожні дев’ять тижнів, й дізналося про те, як працює штучний інтелект для написання романів. Наводимо адаптований переклад статті. 

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.