У четвер, 9 листопада 2023 року, Microsoft, один з найбільших інвесторів OpenAI, тимчасово обмежив доступ співробітників до ChatGPT OpenAI, посилаючись на “проблеми з безпекою та даними”. Обмеження було швидко скасовано, і доступ до ChatGPT було відновлено після того, як компанія виявила свою помилку.
Історія питання
ChatGPT – популярний чат-бот зі штучним інтелектом, створений компанією OpenAI, який складає людські відповіді на повідомлення користувачів у чаті. Сервіс має понад 100 мільйонів користувачів і був навчений на великих обсягах інтернет-даних. Microsoft інвестувала в OpenAI понад 13 мільярдів доларів. Однак, за повідомленням CNBC, співробітникам Microsoft тимчасово заборонили доступ до ChatGPT. На момент заборони існували твердження, що Microsoft обмежила доступ до ChatGPT для деяких співробітників з міркувань безпеки та конфіденційності.
Реакція Microsoft
Представник Microsoft повідомив, що тимчасова заборона доступу сталася, коли компанія тестувала велику мовну модель (Large Language Model, LLM). Він сказав, що під час тестування системи управління терміналом LLM сталася помилка. Однак він рекомендував співробітникам використовувати Bing Chat Enterprise і ChatGPT Enterprise. Співробітники стверджують, що ці продукти мають кращий рівень безпеки та конфіденційності. Прессекретар дав зрозуміти, що заборона була помилковою і не була навмисною. Він сказав:
Ми тестували систему управління терміналами LLM і ненавмисно увімкнули цю опцію для всіх користувачів, і незабаром після виявлення помилки ми відновили обслуговування..
Реакція та наслідки
Тимчасове блокування доступу до ChatGPT співробітниками Microsoft викликало занепокоєння щодо використання сервісів штучного інтелекту, таких як ChatGPT. Багато великих брендів обмежили доступ до ChatGPT, часто для запобігання обміну конфіденційними даними. Цей інцидент підкреслює необхідність для компаній бути обережними при використанні сторонніх сервісів штучного інтелекту.
Microsoft тимчасово обмежила доступ співробітників до ChatGPT від OpenAI через проблеми з безпекою та збереженням даних. Однак обмеження було швидко скасовано після того, як компанія виявила свою помилку. Цей інцидент підкреслює необхідність для компаній бути обережними при використанні сторонніх сервісів штучного інтелекту. Бренди також повинні гарантувати, що дані користувачів залишаються в безпеці.