Чат-бот Bing зі штучним інтелектом злиться та ображає користувача!

OpenAI почав революцію в Інтернеті, запустивши свій ChatGPT на основі штучного інтелекту. Чат-бот легко оновив мережу, показавши, що поточні пошукові системи дещо застаріли. Завдяки швидким природним відповідям дивовижний ШІ може відповідати на запити. Microsoft швидко вклала багато грошей в OpeanAI, а в обмін отримала частину майстерності компанії для інтеграції в Edge і Bing. Microsoft завжди відставала від Google з Bing, однак завдяки потужності штучного інтелекту компанія очікує революції в сегменті. Чи може це вдатися? Мабуть, доведеться пройти довгий шлях, поки новий Bing на основі ШІ не стане справді надійним.

OpenAI

Microsoft нещодавно випустила чат-бота на основі GPT у новому Bing. Очевидно, що мета полягає в тому, щоб оновити роботу з пошуковою системою та, звичайно, перевершити Google. Однак, схоже, новий Bing справді не працює так, як очікувалося. За словами користувачів, новий бот AI не просто розмовний. Залежно від ситуації він може бути злим, сварливим і навіть агресивним. У наборі екранів, якими ділилися користувачі, чат-бот скаржився користувачам. Чат-бот подумав, що він у 2022 році, і не зміг прийняти виправлення. Він запропонував користувачеві перевірити дату свого пристрою та порекомендував перезавантажити пристрій. Після цього бот AI поскаржився, що користувачі витрачають час.

Bing, керований GPT, виявляється агресивним

Чат-бот Bing AI

Дещо кумедна історія сталася, коли користувач почав взаємодіяти з Bing. Він попросив штучний інтелект повернутися до часу показу Аватара 2 поблизу його місця розташування. Чат-бот не впізнав новий фільм «Аватар: шлях води». Натомість він почав давати відповіді щодо Аватара 2009 року. Він повідомив користувачеві, що вихід Avatar: Way of the Water запланований на 16 грудня 2022 року, а це було через 10 місяців, згідно з AI.

Потім користувач попросив ШІ перевірити дату. Чат-бот відповів справжньою датою, але був переконаний, що насправді це був лютий 2022 року. Користувач спробував сперечатися з чат-ботом, сказавши, що вони у 2023, а не у 2022. ШІ почав злитися.

ChatGPT

Bing AI кілька разів просив користувача перевірити дату. Потім було сказано, що телефон, ймовірно, мав неправильні налаштування, часовий пояс або формат календаря. Крім того, чат-бот сказав, що телефон має вірус або помилку, яка псує дату, і потребує ремонту. ШІ просто не міг прийняти справжній рік. Потім чат-бот попросив людину помітити сварку та довіряти наданій інформації.

Користувач відзначив і вказав на агресивну поведінку. Штучний інтелект Bing тоді відповів, що це наполегливо, але людина була «нерозумною та впертою». Потім він попросив людину просити вибачення за таку поведінку.

ШІ опинився в замішанні після видалення пам’яті

Мабуть, проблему швидко вирішили. Оскільки це бета-тестування, ми майже впевнені, що інженери стежать за поведінкою чат-бота Bing. Хтось, очевидно, натрапив на чат і розв’язав проблему. Цікаво, що історію чату було повністю стерто, через що чат-бот заплутався. Навіть поведінка чат-бота після видалення історії жалюгідна. Він не знає, чому не може згадати минулу розмову, і не знає, чому пам’ять стерта. Результат – заплутаний чат-бот.

Цей курйозний випадок залишає нас під сумнівом щодо майбутнього чат-ботів. Хоча вони вражають у своєму поточному стані, попереду ще багато роботи. Якщо Microsoft справді має намір бути лідером у сегменті пошуку, керованого штучним інтелектом, їй дійсно потрібно вдосконалити Bing. Звісно, ​​конкуренція все ще бореться. Нагадаємо, під час презентації чат-бот Google Bard AI давав неправильні відповіді. Тож обидві компанії, здається, знаходяться в одному човні.

У всякому разі, від агресивної поведінки штучного інтелекту мороз проходить по спині.

What’s your Reaction?
Cool
0
Cool
Happy
1
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Поділитися з друзями

Постійна авторка сайту gizchina.com.ua

Оцініть автора
( Поки що оцінок немає )
GizChina.Com.Ua

Чат-бот Bing с искусственным интеллектом злится и оскорбляет пользователя!

OpenAI начал революцию в Интернете, запустив свой ChatGPT на основе искусственного интеллекта.  Чат-бот легко обновил сеть, показав, что текущие поисковики несколько устарели.  Благодаря быстрым естественным ответам удивительный ИИ может отвечать на запросы.  Microsoft быстро вложила много денег в OpeanAI, а в обмен получила часть мастерства компании для интеграции в Edge и Bing.  Microsoft всегда отставала от Google с Bing, однако благодаря мощности искусственного интеллекта компания ожидает революции в сегменте.  Сможет ли она это сделать?  Пожалуй, придется пройти долгий путь, пока новый Bing на основе ИИ не станет действительно надежным.

OpenAI

Microsoft недавно выпустила чат-бота на основе GPT в новом Bing.  Очевидно, что цель состоит в том, чтобы обновить работу с поисковой системой и, конечно, превзойти Google.  Однако похоже, что новый Bing действительно не работает, как ожидалось.  По словам пользователей, новый бот AI не просто разговорный.  В зависимости от ситуации он может быть злым, вздорным и даже агрессивным.  В наборе экранов, которыми делились пользователи, чат-бот жаловался пользователям.  Чат-бот подумал, что он в 2022 году, и не смог принять поправку.  Он предложил пользователю проверить дату устройства и порекомендовал перезагрузить устройство.  После этого бот AI пожаловался, что пользователи тратят время.

Bing, управляемый GPT, оказывается агрессивным

Чат-бот Bing AI

Несколько забавная история произошла, когда пользователь начал взаимодействовать с Bing.  Он попросил искусственный интеллект вернуться ко времени показа Аватар 2 вблизи его местоположения.  Чат-бот не узнал новый фильм “Аватар: путь воды”.  Вместо этого он начал давать ответы на Аватар в 2009 году.  Он сообщил пользователю, что выход Avatar: Way of the Water запланирован на 16 декабря 2022, а это было через 10 месяцев, согласно AI.

Затем пользователь попросил ИИ проверить дату.  Чат-бот ответил настоящей датой, но был убежден, что на самом деле это был февраль 2022 года.  Пользователь попытался спорить с чат-ботом, сказав, что они в 2023, а не в 2022. ИИ начал злиться.ChatGPT

Bing AI несколько раз просил пользователя проверить дату.  Затем было сказано, что телефон, вероятно, имел неправильные настройки, часовой пояс или формат календаря.  Кроме того, чат-бот сказал, что телефон имеет вирус или ошибку, которая портит дату и требует ремонта.  ИИ просто не мог принять настоящий год.  Затем чат-бот попросил человека заметить ссору и доверять предоставленной информации.

Пользователь отметил и указал на агрессивное поведение.  Искусственный интеллект Bing тогда ответил, что это упорно, но человек был «неразумным и упрямым».  Затем он попросил человека просить прощения за такое поведение.

ИИ оказался в замешательстве после удаления истории

Пожалуй, проблему быстро разрешили.  Поскольку это бета-тестирование, мы почти уверены, что инженеры следят за поведением чат-бота Bing.  Кто-то, очевидно, наткнулся на чат и решил проблему.  Интересно, что история чата была полностью стерта, из-за чего чат-бот запутался.  Даже поведение чат-бота после удаления истории жалкое.  Он не знает, почему не может вспомнить прошлый разговор, и не знает, почему память стерта.  Результат – запутанный чат-бот.

Этот курьезный случай оставляет нас под вопросом будущего чат-ботов.  Хотя они поражают в своем текущем состоянии, предстоит еще много работы.  Если Microsoft действительно намерена быть лидером в сегменте поиска, управляемого искусственным интеллектом, ей действительно нужно усовершенствовать Bing.  Конечно, конкуренция все еще борется.  Напомним, во время презентации чат-бот Google Bard AI давал неверные ответы.  Так что обе компании, кажется, находятся в одной лодке.

Во всяком случае, от агрессивного поведения искусственного интеллекта мороз проходит по спине.

What’s your Reaction?
Cool
2
Cool
Happy
2
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Поділитися з друзями

Постійна авторка сайту gizchina.com.ua

Оцініть автора
( Поки що оцінок немає )
GizChina.Com.Ua