👁️👁️ 300 000 криптанів встановили собі Trustee Plus - гаманець з криптокарткою. Чого чекаєш ти? 👉

Американські розробники штучного інтелекту виступають проти закону, який передбачає додавання «kill switch» технології для вимкнення ШІ

Провідні розробники штучного інтелекту, що базуються в Каліфорнії, виступають проти запропонованого законопроєкту, який передбачає суворі стандарти безпеки, включно з впровадженням «аварійного вимикача» (kill switch) для відключення їхніх передових моделей штучного інтелекту.

Залишити коментар
Американські розробники штучного інтелекту виступають проти закону, який передбачає додавання «kill switch» технології для вимкнення ШІ

Провідні розробники штучного інтелекту, що базуються в Каліфорнії, виступають проти запропонованого законопроєкту, який передбачає суворі стандарти безпеки, включно з впровадженням «аварійного вимикача» (kill switch) для відключення їхніх передових моделей штучного інтелекту.

Про це йдеться в матеріалі Financial Times. У ньому вказано, що законодавчий орган Каліфорнії розглядає заходи, які накладуть нові обмеження на діяльність технологічних компаній у штаті. Ці умови стосуються таких відомих стартапів у сфері ШІ, як OpenAI, Anthropic і Cohere, а також основних мовних моделей, що використовуються такими компаніями, як Meta.

Законопроєкт вимагає від каліфорнійських груп розробників ШІ запевнити державні органи, що вони не розроблятимуть моделі з небезпечними можливостями, які можуть створювати біологічну чи ядерну зброю, або допомагати в кібератаках. Крім того, розробники повинні були б звітувати про свої протоколи тестування безпеки та запровадити «аварійний вимикач» для своїх моделей.

Однак ці положення отримали холодне сприйняття від багатьох представників Кремнієвої долини. Вони стверджують, що ці закони можуть витіснити стартапи в галузі ШІ зі штату і перешкодити таким платформам, як Meta, працювати з моделями з відкритим вихідним кодом. Ендрю Ін, вчений-комп’ютерник, який керував проєктами зі створення штучного інтелекту для Google Alphabet і китайської Baidu, а також входить до ради директорів Amazon, заявив, що ці правила можуть мати «задушливий ефект» на інновації.

Раніше Ілон Маск, один з перших інвесторів OpenAI, називав цю технологію «екзистенційною загрозою» для людства. Нещодавно колектив нинішніх і колишніх співробітників OpenAI опублікував відкритого листа, в якому підкреслив, що провідні фірми, які займаються розробкою ШІ, не мають достатнього державного нагляду і становлять «серйозні ризики» для людства.

У січні 2024 року очільник OpenAI Сем Альтман заявив, що не існує «магічної червоної кнопки», яка б зупинила ШІ. За його словами, безпека — це не бінарне питання використання чи невикористання технології; це «безліч маленьких рішень на цьому шляху». Альтман нагадав, що через це запуск GPT-4 був відкладений на 7–8 місяців.

Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
ШІ не загрожує людству вимиранням бо зараз він не розумніший за котів вважає головний спеціаліст із ШІ в Meta
ШІ не загрожує людству вимиранням, бо зараз він не розумніший за котів, вважає головний спеціаліст із ШІ в Meta
По темi
ШІ не загрожує людству вимиранням, бо зараз він не розумніший за котів, вважає головний спеціаліст із ШІ в Meta
«Не існує червоної кнопки яка б підірвала всі дата-центри». 6 найцікавіших тез про ШІ з розмови Сема Альтмана та Сатья Наделли в Давосі
«Не існує червоної кнопки, яка б підірвала всі дата-центри». 6 найцікавіших тез про ШІ з розмови Сема Альтмана та Сатья Наделли в Давосі
По темi
«Не існує червоної кнопки, яка б підірвала всі дата-центри». 6 найцікавіших тез про ШІ з розмови Сема Альтмана та Сатья Наделли в Давосі
ШІ створює «ризик вимирання» нарівні з пандемією та ядерною війною. Таку заяву підписали понад 350 вчених та IT-топів. Серед них — Сем Альтман з Open AI керівники Microsoft Google AI Skype Quora та інші
ШІ створює «ризик вимирання» нарівні з пандемією та ядерною війною. Таку заяву підписали понад 350 вчених та IT-топів. Серед них — Сем Альтман з Open AI, керівники Microsoft, Google AI, Skype, Quora та інші
По темi
ШІ створює «ризик вимирання» нарівні з пандемією та ядерною війною. Таку заяву підписали понад 350 вчених та IT-топів. Серед них — Сем Альтман з Open AI, керівники Microsoft, Google AI, Skype, Quora та інші
Читайте також
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Президент підписав закон, який допоможе мобільним операторам оперативно відновлювати зв'язок
Президент підписав закон, який допоможе мобільним операторам оперативно відновлювати зв'язок
Президент підписав закон, який допоможе мобільним операторам оперативно відновлювати зв'язок
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.