Законодавство США захищає АІ-чатботів від наклепу

З моменту запуску ChatGPT спостерігається переважання чат-ботів зі штучним інтелектом, таких як ChatGPT. Однак поширення цих чат-ботів також означає, що назрівають проблеми. По правді кажучи, OpenAI здивував світ можливостями ChatGPT. З цієї причини з’явилося багато заперечень проти його використання, а деякі з них навіть включають юридичні баталії. Однак у США, країні, де розроблено ChatGPT, закон може якраз захищати ChatGPT. Стаття 230 Закону США про пристойність у сфері комунікацій, виданого в 1996 році, говорить, що компанія не повинна нести юридичну відповідальність за контент, опублікований третіми особами або користувачами на її платформі (стаття 230).

AI Chatbots

Однак у найближчі кілька місяців Верховний суд США вирішить, чи варто послаблювати цей захист. Це також може вплинути на чатботів зі штучним інтелектом, таких як ChatGPT. Очікується, що до кінця червня судді винесуть рішення про те, чи можна притягнути до відповідальності YouTube, що належить Alphabet, за рекомендацію відео користувачам. Хоча платформи звільняються від відповідальності за завантажені користувачами відео, чи застосовується захист розділу 230, коли вони використовують алгоритми для рекомендації контенту користувачам?

Технологічні та юридичні експерти кажуть, що ця справа має наслідки, які виходять за межі платформ соціальних мереж. Вони вважають, що вирок може викликати нові дебати про те, чи можуть такі компанії, як OpenAI та Google, які розробляють чат-боти зі штучним інтелектом, мати імунітет від судових позовів, таких як наклеп або втручання в приватне життя. Експерти зазначають, що це пов’язано з тим, що алгоритм, який використовують ChatGPT та інші чат-боти, схожий на те, як він рекомендує відео користувачам YouTube.

Bing Open AI chatbot

Що роблять чат-боти зі штучним інтелектом?

Чат-боти зі штучним інтелектом навчені генерувати величезні обсяги оригінального контенту, а розділ 230 зазвичай застосовується до контенту третіх сторін. Судам ще належить розглянути питання про те, чи будуть захищені відповіді чат-ботів зі штучним інтелектом. Сенатор-демократ заявив, що право на імунітет не може застосовуватися до генеративних інструментів ШІ, оскільки ці інструменти “створюють контент”.

«Розділ 230 стосується захисту користувачів і вебсайтів, які розміщують і організовують мовлення користувачів. Він не повинен ізолювати компанії від наслідків їхніх власних дій і продуктів», — сказав він.

Технологічна індустрія наполягала на збереженні статті 230. Дехто вважає, що такі інструменти, як ChatGPT, схожі на пошукові системи, які надають користувачам наявний контент на основі запитів. “ШІ насправді нічого не створює. Він просто представляє чинний контент в інший спосіб або в іншому форматі”, – сказав Карл Сабо, віцепрезидент і головний юрисконсульт торгової групи технологічної індустрії NetChoice.

За словами Сабо, якщо розділ 230 буде послаблений, це створить нездійсненне завдання для розробників ШІ. Це також наразить їх на потік судових позовів, які можуть придушити інновації. Деякі експерти припускають, що суди можуть зайняти нейтральну позицію і вивчити контекст, в якому моделі ШІ генерують потенційно шкідливі реакції.

Snapchat My Ai chatbot

Винятки все ще можуть застосовуватися у випадках, коли модель ШІ здатна пояснити чинні джерела. Але чат-боти на кшталт ChatGPT, як відомо, генерують неправдиві відповіді, які, на думку експертів, можуть бути незахищеними.

Ханні Фарід, технолог і професор Каліфорнійського університету в Берклі, вважає надуманою ідею про те, що розробники ШІ повинні мати імунітет від судових позовів через моделі, які вони “програмують, навчають і розгортають”.

«Якщо компанії можуть нести відповідальність за цивільними позовами, вони створюють безпечніші продукти; якщо вони звільняються від відповідальності, продукти, як правило, менш безпечні», — сказав Фарид.

Проблеми з такими інструментами ШІ, як ChatGPT

Чат-боти зі штучним інтелектом зараз дуже популярні в сучасному світі. Це пов’язано з тим, що вони забезпечують ефективний і зручний спосіб взаємодії між людьми. Ці чат-боти здатні обробляти природну мову і надавати релевантні відповіді на запити. Це робить їх корисним інструментом для обслуговування клієнтів, продажу та підтримки. Однак існують занепокоєння щодо безпеки використання чат-ботів зі штучним інтелектом, здебільшого з точки зору приватності та безпеки.

Однією з головних проблем чат-ботів зі штучним інтелектом може стати лакуна для витоку даних і кібератак. Оскільки чат-боти часто вимагають від користувачів надання особистої інформації, наприклад, імені, адреси та платіжних реквізитів, існує ризик того, що ця інформація може бути викрадена. Щоб зменшити цей ризик, компанії повинні забезпечити безпеку своїх чат-ботів і використовувати методи шифрування для захисту даних користувачів.

Ще однією проблемою чат-ботів зі штучним інтелектом є потенційна схильність системи до упередженості. Оскільки чат-боти запрограмовані людьми, вони можуть бути схильні до упереджень і стереотипів, які існують у суспільстві. Наприклад, чат-бот, створений для відбору претендентів на роботу, може дискримінувати певні групи за ознаками раси, статі чи етнічної приналежності. Щоб уникнути цього, розробники чат-ботів повинні переконатися, що їхні алгоритми є майже ідеальними та неупередженими.

Крім того, існує ризик, що чат-боти зі штучним інтелектом не зможуть обробляти складні запити. До них належать ті, що стосуються психічного здоров’я або домашнього насильства. У таких випадках користувачі можуть не отримати необхідної підтримки. Звичайно, це одна з тих сфер, де люди хочуть, щоб чат-боти несли відповідальність. Якщо вони дадуть неправильну відповідь у певних сценаріях, результат може бути дуже поганим.

AI Chatbot technology

Завершальні слова

Попри ці побоювання, чат-боти зі штучним інтелектом можуть бути безпечними у використанні, якщо їх правильно застосовувати. Деякі люди хочуть використовувати чат-ботів для заміни лікарів та інших експертів. Це не ідеальні варіанти використання цього інструменту. Розробники повинні за будь-яку ціну уникати упередженості та забезпечувати інклюзивність системи. Також не слід залишати чат-ботів працювати без присутності людини. Час від часу їх слід перевіряти та за потреби оновлювати. Щоб забезпечити безпеку використання чат-ботів, розробники повинні враховувати питання безпеки, конфіденційності, упередженості та обмежень, що стосуються чат-ботів. За наявності правильних інструментів чат-боти зі штучним інтелектом можуть дуже спростити пошук інформації. Вони також можуть стати непоганим помічником для багатьох людей, які потребують певної допомоги з інформацією.

What’s your Reaction?
Cool
1
Cool
Happy
2
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Поділитися з друзями
Оцініть автора
( Поки що оцінок немає )
GizChina.Com.Ua

Законодательство США защищает ИИ чат-ботов от клеветы

С момента запуска ChatGPT наблюдается преобладание чат-ботов с искусственным интеллектом, таких как ChatGPT. Однако распространение этих чат-ботов также означает, что назревают проблемы. По правде говоря, OpenAI удивил мир возможностями ChatGPT. По этой причине появилось много возражений против его использования, а некоторые из них даже включают юридические баталии. Однако в США, стране, где разработан ChatGPT, закон может как раз защищать ChatGPT. Статья 230 Закона США о приличиях в сфере коммуникаций, изданного в 1996 году, гласит, что компания не должна нести юридическую ответственность за контент, опубликованный третьими лицами или пользователями на ее платформе (статья 230).

AI Chatbots

Однако в ближайшие несколько месяцев Верховный суд США решит, стоит ли ослаблять эту защиту. Это также может повлиять на чатботов с искусственным интеллектом, таких как ChatGPT. Ожидается, что до конца июня судьи вынесут решение о том, можно ли привлечь к ответственности YouTube, принадлежащий Alphabet, за рекомендацию видео пользователям. Хотя платформы освобождаются от ответственности за загруженные пользователями видео, применяется ли защита раздела 230, когда они используют алгоритмы для рекомендации контента пользователям?

Технологические и юридические эксперты говорят, что это дело имеет последствия, которые выходят за пределы платформ социальных сетей. Они считают, что приговор может вызвать новые дебаты о том, могут ли такие компании, как OpenAI и Google, которые разрабатывают чат-боты с искусственным интеллектом, иметь иммунитет от судебных исков, таких как клевета или вмешательство в частную жизнь. Эксперты отмечают, что это связано с тем, что алгоритм, который используют ChatGPT и другие чат-боты, похож на то, как он рекомендует видео пользователям YouTube.

Bing Open AI chatbot

Что делают чат-боты с искусственным интеллектом?

Чат-боты с искусственным интеллектом обучены генерировать огромные объемы оригинального контента, а раздел 230 обычно применяется к контенту третьих сторон. Судам еще предстоит рассмотреть вопрос о том, будут ли защищены ответы чат-ботов с искусственным интеллектом. Сенатор-демократ заявил, что право на иммунитет не может применяться к генеративным инструментам ИИ, поскольку эти инструменты “создают контент”.

“Раздел 230 касается защиты пользователей и веб-сайтов, которые размещают и организуют вещание пользователей. Он не должен изолировать компании от последствий их собственных действий и продуктов”, – сказал он.

Технологическая индустрия настаивала на сохранении статьи 230. Некоторые считают, что такие инструменты, как ChatGPT, похожи на поисковые системы, которые предоставляют пользователям имеющийся контент на основе запросов. “ИИ на самом деле ничего не создает. Он просто представляет существующий контент другим способом или в другом формате”, – сказал Карл Сабо, вице-президент и главный юрисконсульт торговой группы технологической индустрии NetChoice.

По словам Сабо, если раздел 230 будет ослаблен, это создаст невыполнимую задачу для разработчиков ИИ. Это также подвергнет их потоку судебных исков, которые могут подавить инновации. Некоторые эксперты предполагают, что суды могут занять нейтральную позицию и изучить контекст, в котором модели ИИ генерируют потенциально вредные реакции.

Snapchat My Ai chatbot

Исключения все еще могут применяться в случаях, когда модель ИИ способна объяснить существующие источники. Но чат-боты вроде ChatGPT, как известно, генерируют ложные ответы, которые, по мнению экспертов, могут быть незащищенными.

Ханни Фарид, технолог и профессор Калифорнийского университета в Беркли, считает надуманной идею о том, что разработчики ИИ должны иметь иммунитет от судебных исков из-за моделей, которые они “программируют, обучают и развертывают”.

“Если компании могут нести ответственность по гражданским искам, они создают более безопасные продукты; если они освобождаются от ответственности, продукты, как правило, менее безопасны”, – сказал Фарид.

Проблемы с такими инструментами ИИ, как ChatGPT

Чат-боты с искусственным интеллектом сейчас очень популярны в современном мире. Это связано с тем, что они обеспечивают эффективный и удобный способ взаимодействия между людьми. Эти чат-боты способны обрабатывать естественную речь и предоставлять релевантные ответы на запросы. Это делает их полезным инструментом для обслуживания клиентов, продаж и поддержки. Однако существуют опасения относительно безопасности использования чат-ботов с искусственным интеллектом, в основном с точки зрения приватности и безопасности.

Одной из главных проблем чат-ботов с искусственным интеллектом может стать лакуна для утечки данных и кибератак. Поскольку чат-боты часто требуют от пользователей предоставления личной информации, например, имени, адреса и платежных реквизитов, существует риск того, что эта информация может быть похищена. Чтобы уменьшить этот риск, компании должны обеспечить безопасность своих чат-ботов и использовать методы шифрования для защиты данных пользователей.

Еще одной проблемой чат-ботов с искусственным интеллектом является потенциальная склонность системы к предвзятости. Поскольку чат-боты запрограммированы людьми, они могут быть подвержены предубеждениям и стереотипам, которые существуют в обществе. Например, чат-бот, созданный для отбора претендентов на работу, может дискриминировать определенные группы по признакам расы, пола или этнической принадлежности. Чтобы избежать этого, разработчики чат-ботов должны убедиться, что их алгоритмы являются почти идеальными и беспристрастными.

Кроме того, существует риск, что чат-боты с искусственным интеллектом не смогут обрабатывать сложные запросы. К ним относятся те, которые касаются психического здоровья или домашнего насилия. В таких случаях пользователи могут не получить необходимой поддержки. Конечно, это одна из тех сфер, где люди хотят, чтобы чат-боты несли ответственность. Если они дадут неправильный ответ в определенных сценариях, результат может быть очень плохим.

AI Chatbot technology

Заключительные слова

Несмотря на эти опасения, чат-боты с искусственным интеллектом могут быть безопасными в использовании, если их правильно применять. Некоторые люди хотят использовать чат-ботов для замены врачей и других экспертов. Это не идеальные варианты использования этого инструмента. Разработчики должны любой ценой избегать предвзятости и обеспечивать инклюзивность системы. Также не следует оставлять чат-ботов работать без присутствия человека. Время от времени их следует проверять и при необходимости обновлять. Чтобы обеспечить безопасность использования чат-ботов, разработчики должны учитывать вопросы безопасности, конфиденциальности, предвзятости и ограничений, касающихся чат-ботов. При наличии правильных инструментов чат-боты с искусственным интеллектом могут очень упростить поиск информации. Они также могут стать неплохим помощником для многих людей, которые нуждаются в определенной помощи с информацией.

What’s your Reaction?
Cool
0
Cool
Happy
0
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Поділитися з друзями
Оцініть автора
( Поки що оцінок немає )
GizChina.Com.Ua