👁️👁️ 300 000 криптанів встановили собі Trustee Plus - гаманець з криптокарткою. Чого чекаєш ти? 👉

Чим не можна ділитися із ChatGPT: список лайфхаків для збереження особистих і комерційних таємниць

Користувачі інтернету зазвичай усвідомлюють ризики можливого витоку даних і способи використання нашої особистої інформації в інтернеті. Але спокусливі можливості ChatGPT, здається, створили сліпу пляму навколо небезпек, проти яких ми зазвичай вживаємо запобіжних заходів, щоб уникнути. Mashable опублікував статтю, у якій пояснює, які дані користувачам чату не треба світити, користуючись сервісом. Публікуємо її переклад.

Залишити коментар
Чим не можна ділитися із ChatGPT: список лайфхаків для збереження особистих і комерційних таємниць

Користувачі інтернету зазвичай усвідомлюють ризики можливого витоку даних і способи використання нашої особистої інформації в інтернеті. Але спокусливі можливості ChatGPT, здається, створили сліпу пляму навколо небезпек, проти яких ми зазвичай вживаємо запобіжних заходів, щоб уникнути. Mashable опублікував статтю, у якій пояснює, які дані користувачам чату не треба світити, користуючись сервісом. Публікуємо її переклад.

OpenAI нещодавно анонсувала нову функцію конфіденційності, яка дає змогу користувачам ChatGPT вимикати історію чатів, запобігаючи використанню розмов для покращення та вдосконалення моделі.

«Це крок у правильному напрямку, — сказав Надер Хенайн, віцепрезидент із досліджень конфіденційності в Gartner, який має два десятиліття досвіду у сфері корпоративної кібербезпеки та захисту даних. — Але фундаментальна проблема з конфіденційністю та штучним інтелектом полягає в тому, що ви не можете багато чого зробити з точки зору ретроактивного управління після створення моделі».

Хенайн радить думати про ChatGPT як про привітних незнайомців, який сидить позаду вас в автобусі та записує вас на камеру телефону.

«У них дуже добрий голос, вони здаються хорошими людьми. Ви б тоді пішли та поговорили з ними так само?». 

Навіть генеральний директор OpenAI Сем Альтман визнав ризики беззаперечної довіри до ChatGPT. «Помилково покладатися на нього для чогось важливого прямо зараз. Нам потрібно багато працювати над надійністю та правдивістю», — написав він у Twitter  грудні 2022 року.

По суті, ставтеся до підказок ChatGPT так само як і до всього, що ви публікуєте в Інтернеті. «Найкраще припущення полягає в тому, що будь-хто у світі може прочитати все, що ви розміщуєте в Інтернеті — електронні листи, соціальні мережі, блоги, магістерські програми — ніколи не публікуйте нічого, чого б не хотіли, щоб хтось інший прочитав», — сказав Гері Сміт, професор Fletcher Jones. економіки коледжу Помона та автор книги «Недовіра: великі дані, катування даних і напад на науку».

За його словами, ChatGPT можна використовувати як альтернативу Google Search або Wikipedia, за умови перевірки фактів. Але не варто покладатися на щось інше.

Суть полягає в тому, що все ще існують ризики, які стають ще більш нестабільними через привабливість ChatGPT. Незалежно від того, використовуєте ви ChatGPT в особистому житті чи для підвищення продуктивності роботи, вважайте це своїм дружнім нагадуванням двічі подумати про те, чим ви ділитеся з ChatGPT.

Зрозумійте ризики використання ChatGPT

По-перше, давайте подивимося, що OpenAI повідомляє користувачам про те, як вони використовують свої дані. Не всі пріоритети конфіденційності однакові, але важливо знати дрібний шрифт, щоб наступного разу відкрити ChatGPT.

1. Хакери можуть проникнути в суперпопулярну програму

Перш за все, існує ймовірність того, що хтось за межами OpenAI може зламати та вкрасти ваші дані. Під час використання сторонніх служб завжди існує невід’ємний ризик розкриття даних через помилки та хакерів, і ChatGPT не є винятком. У березні 2023 року було виявлено помилку ChatGPT, яка виявила заголовки, перше повідомлення нових розмов і платіжну інформацію від користувачів ChatGPT Plus.
«Вся ця інформація, яку ви вставляєте в нього, є дуже проблематичною, тому що є хороший шанс, що вона може бути сприйнятливою до атак машинного навчання. Це номер один», — сказав Хенайн. «По-друге, це, ймовірно, лежить відкритим текстом десь у журналі. Чи збирається хтось дивитися на це, чи ні, я не знаю, ні ви. Це проблема».

2. Ваші розмови зберігаються десь на сервері

Хоча це малоймовірно, певні співробітники OpenAI мають доступ до вмісту користувачів. На сторінці поширених запитань ChatGPT OpenAI повідомляє, що вміст користувача зберігається в його системах та інших «системах надійних постачальників послуг у США». Таким чином, хоча OpenAI видаляє особисту інформацію, яку можна ідентифікувати, до її «деідентифікації» вона існує на своїх серверах у необробленому вигляді. Деякий уповноважений персонал OpenAI має доступ до вмісту користувача з чотирьох явних причин: одна з них полягає в тому, щоб «точніше налаштувати» свої моделі, якщо користувачі не відмовляться від цього.

3. Ваші розмови використовуються для навчання моделі (якщо ви не відмовитеся)

Ми вимкнемося пізніше, але якщо ви цього не зробите, ваші розмови використовуватимуться для навчання ChatGPT. Відповідно до своєї політики використання даних, яка розкидана по кількох різних статтях на її сайті, OpenAI каже (відкривається в новій вкладці), «ми можемо використовувати дані, які ви нам надаєте, для покращення наших моделей». На іншій сторінці (відкривається в новій вкладці) OpenAI каже, що може «збирати або деідентифікувати особисту інформацію та використовувати зібрану інформацію для аналізу ефективності наших Сервісів». Це означає, що теоретично громадськість може дізнатися про щось на зразок комерційної таємниці через те, що модель «дізнається».

Раніше користувачі могли відмовитися від обміну своїми даними з моделлю лише через форму Google, посилання на яку розміщено на сторінці поширених запитань. Тепер OpenAI представив більш чіткий спосіб вимкнення обміну даними у формі перемикання у вашому обліковому записі ChatGPT. Але навіть у цьому новому «режимі анонімного перегляду» розмови зберігаються на сервері OpenAI протягом 30 днів. Однак компанія відносно мало може сказати про те, як вони забезпечують безпеку ваших даних.

4. Компанія заявляє, що ваші дані не будуть продані третім особам

OpenAI стверджує, що не передає дані користувачів третім особам у маркетингових чи рекламних цілях, тож вам доведеться хвилюватися на одну річ менше. Але він надає дані користувача постачальникам і постачальникам послуг для обслуговування та роботи сайту.

Що може статися, якщо ви використовуєте ChatGPT на роботі?

ChatGPT і генеративні інструменти штучного інтелекту рекламуються як найкращий хак для продуктивності. ChatGPT може створювати чернетки статей, електронних листів, публікацій у соціальних мережах і резюме довгих фрагментів тексту.

«Немає жодного прикладу, про який ви могли б подумати, який би не був зроблений», — сказав Хенайн.

Але коли співробітники Samsung використовували ChatGPT для перевірки свого коду, вони ненавмисно розкрили комерційні таємниці. Відтоді компанія, що займається виробництвом електроніки, заборонила використання ChatGPT і погрожувала працівникам дисциплінарними стягненнями, якщо вони не дотримуватимуться нових обмежень. Такі фінансові установи, як JPMorgan, Bank of America  і Citigroup також заборонили або обмежили використання ChatGPT через суворі фінансові правила щодо третіх сторін обмін повідомленнями. Apple також заборонила своїм співробітникам використовувати чат-бот.

Спокуса скоротити повсякденну роботу на секунди, здається, затьмарює той факт, що користувачі фактично публікують цю інформацію в інтернеті. «Ви думаєте про це так само як про калькулятор, ви думаєте про це як про Excel, — каже він. — Ви не думаєте, що ця інформація потрапляє в хмару і буде там вічно або десь у журналі, або в самій моделі».

Отже, якщо ви хочете використовувати ChatGPT на роботі, щоб розбити концепції, які ви не розумієте, написати копію або проаналізувати загальнодоступні дані, і немає жодних заборонених правил, продовжуйте обережно. Але будьте дуже обережні, перш ніж, наприклад, попросити його оцінити код надсекретної системи наведення ракет, над якою ви працюєте, або попросити його написати підсумок зустрічі вашого боса з корпоративним шпигуном, вбудованим у конкурентну компанію. Це може коштувати вам роботи або навіть гірше.

Що може статися, якщо ви використовуєте ChatGPT як терапевта?

Опитування, проведене медичною компанією Tebra, показало, що кожен четвертий американець частіше спілкується з чат-ботом зі штучним інтелектом, ніж відвідує терапію. Уже з’явилися випадки, коли люди використовують ChatGPT як форму терапії або шукають допомоги у зв’язку зі зловживанням психоактивними речовинами. Ці приклади поділилися як захватні випадки використання ChatGPT, який може бути корисним, незасудженим та анонімним партнером для спілкування. Але пам’ятайте, що ваші найглибші, найтемніші визнання зберігаються десь на сервері.

Гендиректор Nvidia Дженсен Хуанг: «Штучний інтелект може зробити будь-кого програмістом» 
Гендиректор Nvidia Дженсен Хуанг: «Штучний інтелект може зробити будь-кого програмістом» 
По темi
Гендиректор Nvidia Дженсен Хуанг: «Штучний інтелект може зробити будь-кого програмістом» 
Як «хрещений батько ШІ» бореться з журналістами щодо власних висловлювань про небезпеку штучного інтелекту
Як «хрещений батько ШІ» бореться з журналістами щодо власних висловлювань про небезпеку штучного інтелекту
По темi
Як «хрещений батько ШІ» бореться з журналістами щодо власних висловлювань про небезпеку штучного інтелекту
Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
УЧАСТЬ В АЗАРТНИХ ІГРАХ МОЖЕ ВИКЛИКАТИ ІГРОВУ ЗАЛЕЖНІСТЬ. ДОТРИМУЙТЕСЯ ПРАВИЛ (ПРИНЦИПІВ) ВІДПОВІДАЛЬНОЇ ГРИ.
Ліцензія видана ТОВ "СЛОТС Ю.ЕЙ." на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 15.09.23 (рішення КРАІЛ №245 від 31.08.2023); ТОВ "СЛОТС Ю.ЕЙ." – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 26.04.2021 (рішення КРАІЛ №150 від 12.04.2021); ТОВ «СПЕЙСИКС» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 08.02.2021 (рішення КРАІЛ №34 від 02.02.2021); ТОВ «ГЕЙМДЕВ» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 16.02.2021 (рішення № 47 від 10.02.2021).
Читайте також
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
Письменники-романісти використовують штучний інтелект для створення своїх творів. Видання про технології The Verge поспілкувалося з письменницею Дженніфер Лепп, яка випускає нову книгу кожні дев’ять тижнів, й дізналося про те, як працює штучний інтелект для написання романів. Наводимо адаптований переклад статті. 

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.