💳 Потрібна європейська картка з лімітом 50к євро? Встановлюй Trustee Plus 👉
Олександр КузьменкоШІ
7 червня 2024, 13:07
2024-06-07
Американські розробники штучного інтелекту виступають проти закону, який передбачає додавання «kill switch» технології для вимкнення ШІ
Провідні розробники штучного інтелекту, що базуються в Каліфорнії, виступають проти запропонованого законопроєкту, який передбачає суворі стандарти безпеки, включно з впровадженням «аварійного вимикача» (kill switch) для відключення їхніх передових моделей штучного інтелекту.
Провідні розробники штучного інтелекту, що базуються в Каліфорнії, виступають проти запропонованого законопроєкту, який передбачає суворі стандарти безпеки, включно з впровадженням «аварійного вимикача» (kill switch) для відключення їхніх передових моделей штучного інтелекту.
Про це йдеться в матеріалі Financial Times. У ньому вказано, що законодавчий орган Каліфорнії розглядає заходи, які накладуть нові обмеження на діяльність технологічних компаній у штаті. Ці умови стосуються таких відомих стартапів у сфері ШІ, як OpenAI, Anthropic і Cohere, а також основних мовних моделей, що використовуються такими компаніями, як Meta.
Законопроєкт вимагає від каліфорнійських груп розробників ШІ запевнити державні органи, що вони не розроблятимуть моделі з небезпечними можливостями, які можуть створювати біологічну чи ядерну зброю, або допомагати в кібератаках. Крім того, розробники повинні були б звітувати про свої протоколи тестування безпеки та запровадити «аварійний вимикач» для своїх моделей.
Однак ці положення отримали холодне сприйняття від багатьох представників Кремнієвої долини. Вони стверджують, що ці закони можуть витіснити стартапи в галузі ШІ зі штату і перешкодити таким платформам, як Meta, працювати з моделями з відкритим вихідним кодом. Ендрю Ін, вчений-комп’ютерник, який керував проєктами зі створення штучного інтелекту для Google Alphabet і китайської Baidu, а також входить до ради директорів Amazon, заявив, що ці правила можуть мати «задушливий ефект» на інновації.
Раніше Ілон Маск, один з перших інвесторів OpenAI, називав цю технологію «екзистенційною загрозою» для людства. Нещодавно колектив нинішніх і колишніх співробітників OpenAI опублікував відкритого листа, в якому підкреслив, що провідні фірми, які займаються розробкою ШІ, не мають достатнього державного нагляду і становлять «серйозні ризики» для людства.
У січні 2024 року очільник OpenAI Сем Альтман заявив, що не існує «магічної червоної кнопки», яка б зупинила ШІ. За його словами, безпека — це не бінарне питання використання чи невикористання технології; це «безліч маленьких рішень на цьому шляху». Альтман нагадав, що через це запуск GPT-4 був відкладений на 7–8 місяців.
ШІ створює «ризик вимирання» нарівні з пандемією та ядерною війною. Таку заяву підписали понад 350 вчених та IT-топів. Серед них — Сем Альтман з Open AI, керівники Microsoft, Google AI, Skype, Quora та інші
Підключай Megogo зі знижками за акційними тарифами.