Хостинг для будь-яких потреб — VPS від 135 гривень на місяць 👉
Олександр КузьменкоШІ
13 травня 2025, 09:44
2025-05-13
Термоядерні заходи безпеки: експерти закликають прорахувати ймовірність втрати контролю перед запуском штучного суперінтелекту
Провідний фахівець із безпеки ШІ Макс Тегмарк заявив, що ймовірність того, що високорозвинений штучний інтелект становитиме екзистенційну загрозу для людства, складає 90%. Він закликає ШІ-компанії зважити ризики подібно до того, як вчені прораховували можливість вибуху всієї атмосфери планети після першого випробування атомної бомби.
Провідний фахівець із безпеки ШІ Макс Тегмарк заявив, що ймовірність того, що високорозвинений штучний інтелект становитиме екзистенційну загрозу для людства, складає 90%. Він закликає ШІ-компанії зважити ризики подібно до того, як вчені прораховували можливість вибуху всієї атмосфери планети після першого випробування атомної бомби.
Видання The Guardian нагадує, що перед першим у світі випробуванням атомної зброї у 1945 році існувало занепокоєння, що це може спричинити реакцію термоядерного синтезу в атмосфері, яка охопить всю планету. Випробування все ж провели, оскільки вчений Артур Комптон вирахував, що ймовірність такого сценарію трохи менша ніж 1 до 3 млн.
У статті, опублікованій Максом Тегмарком і трьома його студентами в Массачусетському технологічному інституті (MIT), вони рекомендують розрахувати «постійну Комптона» — визначену в статті як ймовірність того, що всемогутній ШІ вийде з-під контролю людини. Тегмарк вважає, що компанії, які займаються розробкою ШІ, повинні взяти на себе відповідальність за ретельний розрахунок того, чи зможе штучний суперінтелект (ASI) — вислизнути з-під людського контролю. ШІ такого рівня перевершуватиме людський інтелект у всіх аспектах.
«Компаніям, які створюють суперінтелект, необхідно також розрахувати постійну Комптона, ймовірність того, що ми втратимо контроль над ним. Недостатньо сказати, що „нам це подобається“. Вони повинні розрахувати відсоток», — сказав він.
За словами Тегмарка, консенсус щодо постійної Комптона, розрахований кількома компаніями, створить «політичну волю» для узгодження глобальних режимів безпеки для ШІ.
Макс Тегмарк, професор фізики й дослідник ШІ в Массачусетському технологічному інституті, також є співзасновником Інституту майбутнього життя, некомерційної організації, яка підтримує безпечний розвиток ШІ й опублікувала у 2023 році відкритий лист із закликом зробити паузу в створенні потужних ШІ. Його підписали понад 33 000 осіб, зокрема Ілон Маск і Стів Возняк, співзасновник Apple.
У листі, опублікованому через кілька місяців після виходу ChatGPT, який започаткував нову еру розвитку ШІ, міститься попередження про те, що лабораторії ШІ втягнуті в «неконтрольовані перегони» з розгортання «все більш потужних цифрових розумів», які ніхто не може «зрозуміти, передбачити або надійно контролювати».
Тегмарк відзначає, що аргументи на користь безпечного розвитку ШІ відновили свої позиції після останнього урядового саміту з питань ШІ в Парижі. Тоді віцепрезидент США Джей-Ді Венс заявив, що майбутнє ШІ «не буде виграно шляхом заламування рук з питань безпеки».
Раніше дослідники з Google DeepMind випустили новий технічний документ, який пояснює, як безпечно розробляти загальний штучний інтелект (AGI). Попри прогнози скептиків, вони вважають, що ШІ такого рівня може з’явитися відносно скоро, і розглядають 4 способи, як він може заподіяти шкоду.
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
Письменники-романісти використовують штучний інтелект для створення своїх творів. Видання про технології The Verge поспілкувалося з письменницею Дженніфер Лепп, яка випускає нову книгу кожні дев’ять тижнів, й дізналося про те, як працює штучний інтелект для написання романів. Наводимо адаптований переклад статті.
Хочете повідомити важливу новину? Пишіть у Telegram-бот
Головні події та корисні посилання в нашому Telegram-каналі