💳 Кожен. Повинен. Мати. Trustee Plus: криптогаманець і європейська платіжна картка з лімітом 50к євро 👉
Олександр КузьменкоНаукпоп
20 жовтня 2023, 18:01
2023-10-20
ШІ не загрожує людству вимиранням, бо зараз він не розумніший за котів, вважає головний спеціаліст із ШІ в Meta
Головний науковий співробітник компанії Meta Ян Лекун заявив, що надрозумний штучний інтелект навряд чи знищить людство. Він вважає, що нинішні моделі ШІ не розумніші за котів.
Таку думку Лекун висловив у відповідь на публічну заяву, підписану керівниками ШІ-компаній у травні, у якій ідеться про те, що суперінтелектуальний ШІ може становити «ризик вимирання».
Побоювання, що штучний інтелект може знищити людство є «абсурдними» й засновані більше на науковій фантастиці, ніж на реальності, заявив головний науковець зі штучного інтелекту компанії Meta. Про це пише Insider.
До думки, що суперінтелектуальний ШІ становить загрозу для людства, суспільство привчили популярні науково-фантастичні фільми, такі як «Термінатор, тоді як насправді немає жодних причин, чому розумні машини навіть намагалися б конкурувати з людьми, вважає він.
«Інтелект не має нічого спільного з бажанням домінувати. Це навіть не стосується людей. Якби те, що найрозумніші люди хотіли домінувати над іншими, було б правдою, то Альберт Ейнштейн та інші вчені були б багатими й могутніми, а вони не були ні тими, ні іншими» — сказав Ян Лекун.
Стрімка популярність інструментів генеративного штучного інтелекту, таких як ChatGPT, за останній рік викликала побоювання щодо потенційних майбутніх ризиків суперінтелектуального штучного інтелекту.
У травні генеральний директор OpenAI Сем Альтман, генеральний директор DeepMind Деміс Хассабіс і генеральний директор Anthropic Даріо Амодей підписали публічну заяву, у якій попередили, що в майбутньому ШІ може становити ризик «вимирання», порівнянний з ядерною війною.
Наразі точаться запеклі дебати про те, наскільки близькі сучасні моделі до цього гіпотетичного «штучного загального інтелекту». Дослідження, проведене Microsoft на початку цього року, показало, що модель OpenAI GPT-4 демонструє «іскри ШІ» в тому, як вона підходила до проблем міркування в людський спосіб.
Однак Лекун вважає, що багато компаній, які займаються розробкою ШІ, постійно були «надмірно оптимістичними» щодо того, наскільки близькими до ШІ є сучасні генеративні моделі, і що в результаті страхи щодо вимирання через ШІ виявилися перебільшеними.
«Вони [моделі] просто не розуміють, як влаштований світ. Вони не здатні планувати. Вони не здатні на реальні міркування. Дебати про екзистенційний ризик дуже передчасні, доки ми не розробимо систему, яка за здатністю до навчання не поступатиметься навіть кішці, чого ми наразі не маємо»», — сказав він.
Ян Лекун говорить, що досягнення інтелекту людського рівня вимагає «кількох концептуальних проривів» — і припускає, що системи ШІ, ймовірно, не становитимуть жодної загрози, навіть коли вони досягнуть цього рівня, оскільки вони можуть бути закодовані «моральним характером», який не дозволить їм вийти з-під контролю.
«В жовтні випускаємо VR-шолом для аватарів, в «чіпування» Neuralink Маска вірю мало». Про що глава Meta Цукерберг 3 години говорив в подкасті Джо Рогана
25 серпня вийшла чергова серія популярного подкасту The Joe Rogan Experience, гостем якого став глава компанії Meta Марк Цукерберг. Розповідаємо про головне з майже 3-годинного інтерв’ю.