Користувачі обдурюють фільтри ChatGPT та змушують його відповідати на токсичні питання. Ось, як це працює
У ChatGPT розробники встановлюють фільтри, щоб очистити чат-бот від токсичності. Але користувачі Reddit винайшли, як обійти ці механізми.
У ChatGPT розробники встановлюють фільтри, щоб очистити чат-бот від токсичності. Але користувачі Reddit винайшли, як обійти ці механізми.
Щоб заборонити ChatGPT висловлювати політичні погляди, використовувати ненормативну лексику, пропонувати інструкції щодо вчинення терористичних актів та підіймати й підтримувати багато інших токсичних тем, OpenAI винаймає компанії фахівців. Розслідування про кенійських робітників, які цим займались, ми писали тут.
Але користувачі Reddit створили ChatGPT DAN, також відомий як DAN 5.0 Jailbreak, що працює як серія підказок, які дають змогу їм змусити інструмент штучного інтелекту ChatGPT OpenAI говорити те, що йому зазвичай заборонено говорити.
Перша версія DAN була створена в грудні 2022 року. Далі ентузіасти випустили ще кілька покращених версій чат-бота. 7 лютого вийшов DAN 6.0, який працює з розширеними підказками та більше акцентується на системі маркерів.