З моменту запуску ChatGPT спостерігається переважання чат-ботів зі штучним інтелектом, таких як ChatGPT. Однак поширення цих чат-ботів також означає, що назрівають проблеми. По правді кажучи, OpenAI здивував світ можливостями ChatGPT. З цієї причини з’явилося багато заперечень проти його використання, а деякі з них навіть включають юридичні баталії. Однак у США, країні, де розроблено ChatGPT, закон може якраз захищати ChatGPT. Стаття 230 Закону США про пристойність у сфері комунікацій, виданого в 1996 році, говорить, що компанія не повинна нести юридичну відповідальність за контент, опублікований третіми особами або користувачами на її платформі (стаття 230).
Однак у найближчі кілька місяців Верховний суд США вирішить, чи варто послаблювати цей захист. Це також може вплинути на чатботів зі штучним інтелектом, таких як ChatGPT. Очікується, що до кінця червня судді винесуть рішення про те, чи можна притягнути до відповідальності YouTube, що належить Alphabet, за рекомендацію відео користувачам. Хоча платформи звільняються від відповідальності за завантажені користувачами відео, чи застосовується захист розділу 230, коли вони використовують алгоритми для рекомендації контенту користувачам?
Технологічні та юридичні експерти кажуть, що ця справа має наслідки, які виходять за межі платформ соціальних мереж. Вони вважають, що вирок може викликати нові дебати про те, чи можуть такі компанії, як OpenAI та Google, які розробляють чат-боти зі штучним інтелектом, мати імунітет від судових позовів, таких як наклеп або втручання в приватне життя. Експерти зазначають, що це пов’язано з тим, що алгоритм, який використовують ChatGPT та інші чат-боти, схожий на те, як він рекомендує відео користувачам YouTube.
Що роблять чат-боти зі штучним інтелектом?
Чат-боти зі штучним інтелектом навчені генерувати величезні обсяги оригінального контенту, а розділ 230 зазвичай застосовується до контенту третіх сторін. Судам ще належить розглянути питання про те, чи будуть захищені відповіді чат-ботів зі штучним інтелектом. Сенатор-демократ заявив, що право на імунітет не може застосовуватися до генеративних інструментів ШІ, оскільки ці інструменти “створюють контент”.
«Розділ 230 стосується захисту користувачів і вебсайтів, які розміщують і організовують мовлення користувачів. Він не повинен ізолювати компанії від наслідків їхніх власних дій і продуктів», — сказав він.
Технологічна індустрія наполягала на збереженні статті 230. Дехто вважає, що такі інструменти, як ChatGPT, схожі на пошукові системи, які надають користувачам наявний контент на основі запитів. “ШІ насправді нічого не створює. Він просто представляє чинний контент в інший спосіб або в іншому форматі”, – сказав Карл Сабо, віцепрезидент і головний юрисконсульт торгової групи технологічної індустрії NetChoice.
За словами Сабо, якщо розділ 230 буде послаблений, це створить нездійсненне завдання для розробників ШІ. Це також наразить їх на потік судових позовів, які можуть придушити інновації. Деякі експерти припускають, що суди можуть зайняти нейтральну позицію і вивчити контекст, в якому моделі ШІ генерують потенційно шкідливі реакції.
Винятки все ще можуть застосовуватися у випадках, коли модель ШІ здатна пояснити чинні джерела. Але чат-боти на кшталт ChatGPT, як відомо, генерують неправдиві відповіді, які, на думку експертів, можуть бути незахищеними.
Ханні Фарід, технолог і професор Каліфорнійського університету в Берклі, вважає надуманою ідею про те, що розробники ШІ повинні мати імунітет від судових позовів через моделі, які вони “програмують, навчають і розгортають”.
«Якщо компанії можуть нести відповідальність за цивільними позовами, вони створюють безпечніші продукти; якщо вони звільняються від відповідальності, продукти, як правило, менш безпечні», — сказав Фарид.
Проблеми з такими інструментами ШІ, як ChatGPT
Чат-боти зі штучним інтелектом зараз дуже популярні в сучасному світі. Це пов’язано з тим, що вони забезпечують ефективний і зручний спосіб взаємодії між людьми. Ці чат-боти здатні обробляти природну мову і надавати релевантні відповіді на запити. Це робить їх корисним інструментом для обслуговування клієнтів, продажу та підтримки. Однак існують занепокоєння щодо безпеки використання чат-ботів зі штучним інтелектом, здебільшого з точки зору приватності та безпеки.
Однією з головних проблем чат-ботів зі штучним інтелектом може стати лакуна для витоку даних і кібератак. Оскільки чат-боти часто вимагають від користувачів надання особистої інформації, наприклад, імені, адреси та платіжних реквізитів, існує ризик того, що ця інформація може бути викрадена. Щоб зменшити цей ризик, компанії повинні забезпечити безпеку своїх чат-ботів і використовувати методи шифрування для захисту даних користувачів.
Ще однією проблемою чат-ботів зі штучним інтелектом є потенційна схильність системи до упередженості. Оскільки чат-боти запрограмовані людьми, вони можуть бути схильні до упереджень і стереотипів, які існують у суспільстві. Наприклад, чат-бот, створений для відбору претендентів на роботу, може дискримінувати певні групи за ознаками раси, статі чи етнічної приналежності. Щоб уникнути цього, розробники чат-ботів повинні переконатися, що їхні алгоритми є майже ідеальними та неупередженими.
Крім того, існує ризик, що чат-боти зі штучним інтелектом не зможуть обробляти складні запити. До них належать ті, що стосуються психічного здоров’я або домашнього насильства. У таких випадках користувачі можуть не отримати необхідної підтримки. Звичайно, це одна з тих сфер, де люди хочуть, щоб чат-боти несли відповідальність. Якщо вони дадуть неправильну відповідь у певних сценаріях, результат може бути дуже поганим.
Завершальні слова
Попри ці побоювання, чат-боти зі штучним інтелектом можуть бути безпечними у використанні, якщо їх правильно застосовувати. Деякі люди хочуть використовувати чат-ботів для заміни лікарів та інших експертів. Це не ідеальні варіанти використання цього інструменту. Розробники повинні за будь-яку ціну уникати упередженості та забезпечувати інклюзивність системи. Також не слід залишати чат-ботів працювати без присутності людини. Час від часу їх слід перевіряти та за потреби оновлювати. Щоб забезпечити безпеку використання чат-ботів, розробники повинні враховувати питання безпеки, конфіденційності, упередженості та обмежень, що стосуються чат-ботів. За наявності правильних інструментів чат-боти зі штучним інтелектом можуть дуже спростити пошук інформації. Вони також можуть стати непоганим помічником для багатьох людей, які потребують певної допомоги з інформацією.