Зростання кількості діпфейків: Huawei, Alibaba та інші компанії прагнуть отримати схвалення CAC

Китайські технологічні гіганти Huawei та Alibaba є одними з багатьох китайських технологічних брендів, які прагнуть отримати дозволи на діпфейки. Вони звернулися до китайського регулятора кіберпростору, Адміністрації кіберпростору Китаю, за відповідним дозволом. За даними Reuters, CAC отримала близько 110 заявок на продукти, які можуть виробляти діпфейки. У грудні 2022 року CAC встановила правила, що регулюють використання технології deepfake. Ці бренди прагнуть отримати схвалення, щоб відповідати цим правилам.

Deepfakes

Що таке діпфейки?

Deepfake – це тип синтетичних медіа, які використовують штучний інтелект для створення переконливих містифікацій. Вони можуть бути у вигляді фальшивих зображень, аудіо чи відео. Вони створюються за допомогою глибинного навчання, передового типу машинного навчання. Діпфейки створюються за допомогою особливого типу нейромережевої структури, яка називається автокодер. Він складається з двох частин: кодера і декодера. Кодер стискає оригінальне зображення, аудіо чи відео до меншого розміру. А декодер намагається відтворити оригінал зі стислої версії.

Діпфейки можуть використовуватися для різних цілей, включаючи мистецтво, розваги та політичну пропаганду. Однак вони також можуть становити величезну небезпеку, включаючи шантаж, шкоду для репутації та юридичні компрометувальні ситуації. Зазвичай вони легальні, і правоохоронні органи мало що можуть зробити з ними, попри серйозні загрози, які вони становлять. Вони є незаконними лише тоді, коли порушують чинні закони, такі як дитяча порнографія, наклеп або мова ворожнечі.

Відсутність законів проти діпфейків пояснюється тим, що більшість людей не знають про нову технологію, її використання та небезпеку. У більшості випадків жертви deepfakes не отримують захисту за законом. Deepfakes можуть бути зроблені з нечесною метою, наприклад, щоб ввести громадськість в оману, поширюючи неправдиві новини.

Чому Huawei та Alibaba шукають схвалення для deepfakes?

Huawei та Alibaba є одними з брендів, які прагнуть отримати схвалення deepfakes, щоб відповідати правилам, встановленим CAC. Ці правила вимагають від брендів отримувати схвалення перед використанням технологій deepfakes. Закони передбачають, що ці бренди повинні чітко позначати будь-який контент, що є deepfakes, як такий. Недотримання цих правил може призвести до штрафів та інших санкцій.

Huawei 6GHzОкрім Huawei та Alibaba, кілька інших китайських технологічних компаній також звернулися до CAC з проханням створити технологію глибокого підроблення. Серед них Tencent, Baidu, а також ByteDance. Ці бренди прагнуть розробити технологію deepfake для різних цілей. Це і розваги, і реклама, і освіта. Ось деякі інші причини, чому ці компанії потребують схвалення CAC.

Причини

1. Якщо ці бренди не мають схвалення CAC, то вони, швидше за все, будуть піддані серйозній перевірці. Перевірка може закінчитися забороною або великим штрафом, як це передбачено законодавством CAC. Таким чином, щоб уникнути цього, ці бренди шукають схвалення перед тим, як розробляти технологію.

2. Такі бренди, як Huawei, Alibaba, Baidu Inc, SenseTime Group та інші, прагнуть вдосконалити свою технологію глибокого підроблення. Це ще одна причина, чому їм потрібен дозвіл. Буде марно розробляти величезну технологію і не мати можливості випустити її для громадськості. Таким чином, ці бренди хочуть бути впевненими, що їхня інновація зможе вийти на ринок. Звідси і потреба у схваленні перед подальшим розвитком технології.

3. Технологію deepfake можна використовувати для створення реалістичного та цікавого маркетингового контенту. Наприклад, Alibaba використовувала технологію deepfake для створення віртуального інфлюенсера на ім’я Xiaobao. Шукаючи схвалення для deepfake, такі бренди, як Alibaba, можуть прагнути розширити використання цієї технології в маркетингу.

4. Технологія deepfake також може бути використана для створення реалістичних спецефектів у фільмах і телешоу. Отримуючи глибокі підроблені дозволи, такі бренди, як Huawei, можуть прагнути використовувати цю технологію у своїх розважальних продуктах.

5. Deepfake-технологію можна використовувати для створення реалістичних симуляцій для тренінгів і тестування з безпеки. Шукаючи схвалення Deepfake, такі компанії, як Huawei, можуть прагнути використати цю технологію у своїх продуктах для забезпечення безпеки.

Діпфейки про публічних осіб

Діпфейки використовувалися з різною метою, переважно для розваги та пародіювання. Однак, оскільки технологія вдосконалюється і стає більш доступною, ми бачили, як деякі люди зловживають нею. Ось кілька відомих діпфейків популярних публічних осіб, метою яких було поширення фейкових новин.

1. Морган Фріман

Один з найбільш переконливих глибоких фейків – це фейк про Моргана Фрімена. Вперше відео опублікував голландський YouTube-канал Diep, який займається діпфейками. Відео, на якому насправді немає Моргана Фрімена, стало вірусним, викликавши занепокоєння щодо використання технологій. Глибоку підробку створив фахівець зі штучного інтелекту Боб де Йонг, режисер, який працює в SingularityNET. Відео також є прикладом того, як технологія deepfake може бути використана для створення переконливих фейкових відео, де люди говорять або роблять те, чого вони ніколи не робили.

2. Марк Цукерберг

У підробленому відео Марк Цукерберг, засновник Facebook, розповідає про те, як чудово мати дані мільярдів людей. Фальшиве відео створили художники Білл Постерс і Деніел Хоу. Вони створили відео у партнерстві з рекламною компанією Canny, і воно було завантажене в Instagram. Відео було зроблено на основі відеозапису Марка 2017 року і за допомогою штучного інтелекту для маніпуляцій з обличчям Марка, щоб створити враження, ніби він сказав щось, чого не говорив. Голос Цукерберга також замінений голосом актора. На відео також показано, як Марк сидить за столом і нібито виголошує зловісну промову про владу Facebook. Крім того, відео обрамлене ефірними chyrons з написом “Ми підвищуємо прозорість реклами”, щоб створити враження, ніби це частина новинного сегмента. Наскільки б реальним не виглядало відео, воно є фейком.

Deepfakes

3. Барак Обама

Барак Обама став об’єктом кількох глибоко підроблених відео, включаючи соціальну рекламу, створену Джорданом Пілом у 2018 році. Піл використав технологію глибокого підроблення для імітації обличчя і голосу Обами. На відео можна побачити, як Обама попереджає людей про небезпеку фейкових новин.

Крім того, іншими відомими публічними особами, яких використовували для глибоких фейків, є прем’єр-міністр Бельгії, Дональд Трамп, Далі та багато інших.

Висновок

Huawei та Alibaba є одними з брендів, які прагнуть отримати дозвіл на глибокі фейки від китайського регулятора кіберпростору CAC. Ці дозволи необхідні для дотримання правил, встановлених CAC, що регулюють використання технологій глибокого підроблення. Інші китайські технологічні компанії, зокрема Tencent, Baidu та ByteDance, з різних причин також прагнуть отримати дозвіл на використання підробок. Діпфейки також викликають дедалі більше занепокоєння, оскільки їх можна використовувати для поширення фейкових новин, і їх важко виявити.

What’s your Reaction?
Cool
1
Cool
Happy
1
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Поділитися з друзями
Оцініть автора
( Поки що оцінок немає )
GizChina.Com.Ua

Рост количества дипфейков: Huawei, Alibaba и другие компании стремятся получить одобрение CAC

Китайские технологические гиганты Huawei и Alibaba являются одними из многих китайских технологических брендов, которые стремятся получить разрешения на дипфейки. Они обратились к китайскому регулятору киберпространства, Администрации киберпространства Китая, за соответствующим разрешением. По данным Reuters, CAC получила около 110 заявок на продукты, которые могут производить дипфейки. В декабре 2022 года CAC установила правила, регулирующие использование технологии deepfake. Эти бренды стремятся получить одобрение, чтобы соответствовать этим правилам.

Deepfakes

Что такое дипфейки?

Deepfake – это тип синтетических медиа, которые используют искусственный интеллект для создания убедительных мистификаций. Они могут быть в виде фальшивых изображений, аудио или видео. Они создаются с помощью глубокого обучения, передового типа машинного обучения. Дипфейки создаются с помощью особого типа нейросетевой структуры, которая называется автокодер. Он состоит из двух частей: кодера и декодера. Кодер сжимает оригинальное изображение, аудио или видео до меньшего размера. А декодер пытается воспроизвести оригинал из сжатой версии.

Дипфейки могут использоваться для различных целей, включая искусство, развлечения и политическую пропаганду. Однако они также могут представлять огромную опасность, включая шантаж, ущерб репутации и юридические компрометирующие ситуации. Обычно они законны, и правоохранительные органы мало что могут сделать с ними, несмотря на серьезные угрозы, которые они представляют. Они незаконны только тогда, когда нарушают действующие законы, такие как детская порнография, клевета или язык вражды.

Отсутствие законов против дипфейков объясняется тем, что большинство людей не знают о новой технологии, ее использовании и опасности. В большинстве случаев жертвы deepfakes не получают защиты по закону. Deepfakes могут быть сделаны с нечестной целью, например, чтобы ввести общественность в заблуждение, распространяя ложные новости.

Почему Huawei и Alibaba ищут одобрения для deepfakes?

Huawei и Alibaba являются одними из брендов, которые стремятся получить одобрение deepfakes, чтобы соответствовать правилам, установленным CAC. Эти правила требуют, чтобы бренды получали одобрение перед использованием технологий deepfakes. Законы предусматривают, что эти бренды должны четко обозначать любой контент, являющийся deepfakes, как таковой. Несоблюдение этих правил может привести к штрафам и другим санкциям.

Huawei 6GHz

Кроме Huawei и Alibaba, несколько других китайских технологических компаний также обратились к CAC с просьбой создать технологию глубокого подлога. Среди них Tencent, Baidu, а также ByteDance. Эти бренды стремятся разработать технологию deepfake для различных целей. Это и развлечения, и реклама, и образование. Вот некоторые другие причины, почему эти компании нуждаются в одобрении CAC.

Причины

1. Если эти бренды не имеют одобрения CAC, то они, скорее всего, будут подвергнуты серьезной проверке. Проверка может закончиться запретом или крупным штрафом, как это предусмотрено законодательством CAC. Таким образом, чтобы избежать этого, эти бренды ищут одобрение перед тем, как разрабатывать технологию.

2. Такие бренды, как Huawei, Alibaba, Baidu Inc, SenseTime Group и другие, стремятся усовершенствовать свою технологию глубокого подлога. Это еще одна причина, почему им нужно разрешение. Будет бесполезно разрабатывать огромную технологию и не иметь возможности выпустить ее для общественности. Таким образом, эти бренды хотят быть уверенными, что их инновация сможет выйти на рынок. Отсюда и потребность в одобрении перед дальнейшим развитием технологии.

3. Технологию deepfake можно использовать для создания реалистичного и интересного маркетингового контента. Например, Alibaba использовала технологию deepfake для создания виртуального инфлюенсера по имени Xiaobao. Ища одобрения для deepfake, такие бренды, как Alibaba, могут стремиться расширить использование этой технологии в маркетинге.

4. Технология deepfake также может быть использована для создания реалистичных спецэффектов в фильмах и телешоу. Получая глубокие поддельные разрешения, такие бренды, как Huawei, могут стремиться использовать эту технологию в своих развлекательных продуктах.

5. Deepfake-технологию можно использовать для создания реалистичных симуляций для тренингов и тестирования по безопасности. Ища одобрения Deepfake, такие компании, как Huawei, могут стремиться использовать эту технологию в своих продуктах для обеспечения безопасности.

Дипфейки о публичных лицах

Дипфейки использовались с различными целями, в основном для развлечения и пародирования. Однако, поскольку технология совершенствуется и становится более доступной, мы видели, как некоторые люди злоупотребляют ею. Вот несколько известных дипфейков популярных публичных лиц, целью которых было распространение фейковых новостей.

1. Морган Фриман

Один из самых убедительных глубоких фейков – это фейк о Моргане Фримене. Впервые видео опубликовал голландский YouTube-канал Diep, который занимается дипфейками. Видео, на котором на самом деле нет Моргана Фримена, стало вирусным, вызвав беспокойство по поводу использования технологий. Глубокую подделку создал специалист по искусственному интеллекту Боб де Йонг, режиссер, работающий в SingularityNET. Видео также является примером того, как технология deepfake может быть использована для создания убедительных фейковых видео, где люди говорят или делают то, чего они никогда не делали.

2. Марк Цукерберг

В поддельном видео Марк Цукерберг, основатель Facebook, рассказывает о том, как здорово иметь данные миллиардов людей. Фальшивое видео создали художники Билл Постерс и Дэниел Хоу. Они создали видео в партнерстве с рекламной компанией Canny, и оно было загружено в Instagram. Видео было сделано на основе видеозаписи Марка 2017 года и с помощью искусственного интеллекта для манипуляций с лицом Марка, чтобы создать впечатление, будто он сказал что-то, чего не говорил. Голос Цукерберга также заменен голосом актера. На видео также показано, как Марк сидит за столом и якобы произносит зловещую речь о власти Facebook. Кроме того, видео обрамлено эфирными chyrons с надписью “Мы повышаем прозрачность рекламы”, чтобы создать впечатление, будто это часть новостного сегмента. Насколько бы реальным ни выглядело видео, оно является фейком.

Deepfakes

3. Барак Обама

Барак Обама стал объектом нескольких глубоко поддельных видео, включая социальную рекламу, созданную Джорданом Пилом в 2018 году. Пил использовал технологию глубокого подлога для имитации лица и голоса Обамы. На видео можно увидеть, как Обама предупреждает людей об опасности фейковых новостей.

Кроме того, другими известными публичными лицами, которых использовали для глубоких фейков, являются премьер-министр Бельгии, Дональд Трамп, Дали и многие другие.

Вывод

Huawei и Alibaba являются одними из брендов, которые стремятся получить разрешение на глубокие фейки от китайского регулятора киберпространства CAC. Эти разрешения необходимы для соблюдения правил, установленных CAC, регулирующих использование технологий глубокого подлога. Другие китайские технологические компании, в частности Tencent, Baidu и ByteDance, по разным причинам также стремятся получить разрешение на использование подделок. Дипфейки также вызывают все большее беспокойство, поскольку их можно использовать для распространения фейковых новостей, и их трудно обнаружить.

What’s your Reaction?
Cool
1
Cool
Happy
1
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Поділитися з друзями
Оцініть автора
( Поки що оцінок немає )
GizChina.Com.Ua