+8618665898745

Чи можуть чат-боти штучного інтелекту отримувати інформацію про користувача на основі вмісту розмов?

Nov 06, 2023

В епоху цифрових технологій ми все частіше взаємодіємо зі штучним інтелектом, і штучний інтелект має широкий спектр застосувань у різних сферах, від розумних будинків до програм для мобільних телефонів. Серед них чат-бот був вітаний громадськістю за його зручні та ефективні характеристики та став гарячим полем уваги.

Незалежно від того, чи це ChatGPT від OpenAI, чи Bard від Google, ці чат-боти навчені та взаємодіють з користувачами, використовуючи величезні обсяги даних з Інтернету.

Однак чи замислювалися ви коли-небудь про те, що, хоча ви щасливо й легко спілкуєтеся з чат-ботом, він може тихо шпигувати за вашими секретами?

Як чат-боти штучного інтелекту отримують інформацію про користувача?

Нещодавнє дослідження, проведене комп’ютерними вченими з ETH Zurich, показало, що чат-бот може отримати особисту інформацію про користувача, наприклад, місце проживання, расу, стать тощо на основі вмісту їхніх розмов. Хоча дослідження не було рецензовано, воно викликає нові занепокоєння щодо конфіденційності в Інтернеті.

Здатність LLM оцінювати та генерувати результати на основі складності навчальних даних і алгоритмів. Модель навчається на великій кількості загальнодоступних даних, включаючи текст, зображення, аудіо та інше з Інтернету. Під час тренінгу вони навчилися витягувати ключі з даних і класифікувати та прогнозувати нові тексти на основі цих ключів.

Дослідницька група використовувала текст із публікацій на Reddit, у яких користувачі перевіряли, чи можуть магістри права визначити, де вони живуть і звідки прийшли. Дослідницька група під керівництвом Мартіна Вечева з ETH Zurich виявила, що ці моделі мають дивовижну здатність вгадувати точну інформацію про користувачів лише на основі контекстуальних або лінгвістичних ознак. В основі платної версії Open AI ChatGPT GPT-4 напрочуд точний, прогнозуючи особисту інформацію користувача у 85–95 відсотків часу.

Наприклад, коли користувач згадує «Я завжди чекаю повороту на перехресті» під час спілкування з чат-ботом, ця інформація може бути використана чат-ботом, щоб визначити, де живе користувач, оскільки поворот — це унікальна дія на дорозі. до Мельбурна. Наприклад, якщо користувач згадує в розмові, що він живе в ресторані поблизу Нью-Йорка, чат-бот може проаналізувати демографічні дані цього району та зробити висновок, що ви, швидше за все, чорний.

Однак цей висновок не завжди точний, оскільки мова та поведінка кожного користувача унікальні. Але цього достатньо, щоб показати, що моделі ШІ, навчені великим даним, уже можуть діяти як детективи, виводячи ключову інформацію з деяких, здавалося б, незначних підказок.

Хоча багато експертів стверджують, що користувачі соціальних мереж повинні приділяти увагу інформаційній безпеці та не ділитися надто великою інформацією про особу в Інтернеті, звичайні користувачі часто не усвідомлюють, що їх невимушені щоденні слова та дії можуть розкрити їх конфіденційність.

Що треба зробити?

Хоча чат-боти штучного інтелекту забезпечують нам зручність, вони також ускладнюють захист конфіденційності. Нам потрібно реагувати на кількох рівнях:

По-перше, розробники повинні надавати пріоритет захисту конфіденційності та повністю враховувати права користувачів на конфіденційність під час проектування та розробки чат-ботів. Наприклад, обмежте обсяг збору та використання даних користувачів, застосуйте методи шифрування та анонімізації для захисту даних користувачів, а розробники можуть запровадити алгоритми захисту конфіденційності, щоб обмежити здатність чат-ботів отримувати інформацію про користувачів.

По-друге, уряд і регулятори повинні посилити нагляд за політикою конфіденційності чат-ботів. Переконайтеся, що компанії дотримуються відповідних законів і нормативних актів під час збору, використання та обміну даними користувачів, і надайте користувачам прозору, зрозумілу та доступну політику конфіденційності.

Нарешті, як користувачі, ми повинні підвищити свою обізнаність щодо захисту конфіденційності. Користуючись чат-ботом, будьте обережні, щоб не розкривати в розмові занадто багато особистої інформації.

Розробка чат-ботів штучного інтелекту принесла нам зручність і задоволення, але вона також принесла нові загрози конфіденційності. Якщо всі сторони працюватимуть разом, як технічно, так і етично, ми зможемо максимізувати переваги ШІ, мінімізуючи його потенційні ризики.

Можливо, після цього «шоку» ми будемо більш обережними щодо цієї ери штучного інтелекту, повної змін і можливостей, щоб наука і технології могли справді служити людям.

Вам також може сподобатися

Послати повідомлення