22 мая 2023 года фальшивое изображение взрыва в Пентагоне ненадолго стало вирусным. Изображение, созданное с помощью генеративного ИИ, было распространено несколькими аккаунтами в социальных сетях. Это вызвало десятиминутное падение на рынках, поскольку инвесторы запаниковали и продали акции.
Пентагон быстро выступил с заявлением, отрицающим факт взрыва. Однако ущерб уже был нанесен. Поддельное изображение вызвало всеобщий страх и неуверенность. Он также подчеркнул опасность генеративного ИИ.
Объяснение фальшивого взрыва ИИ в Пентагоне
Фотография взрыва, которая стала вирусной в социальных сетях, якобы показала ущерб Пентагону в Вашингтоне, округ Колумбия, и была сгенерирована с помощью программного обеспечения искусственного интеллекта.
Однако это не помешало большому количеству учетных записей в социальных сетях поделиться им, что привело к кратковременному падению фондового рынка.
Пользователи Twitter были встревожены рано утром в понедельник фотографией, на которой, как утверждается, видно огромное облако дыма возле здания, и слухами о том, что взрыв произошел недалеко от Пентагона.
Однако полицейское управление Арлингтона заявило, что фотография и прилагаемые к ней заявления были ложными.
Опасности генеративного ИИ
Генеративный ИИ — это тип искусственного интеллекта, который может создавать новый контент, например изображения, текст и музыку. Он все еще находится в стадии разработки, но уже был использован для создания впечатляющего и реалистичного контента. Однако генеративный ИИ также можно использовать для создания поддельного контента, например изображения взрыва Пентагона.
Уверен, что эта фотография, претендующая на то, чтобы показать "взрыв возле пятиугольника" генерируется ИИ.
Посмотрите на фасад здания и на то, как забор сливается с барьерами толпы. Также нет никаких других изображений, видео или людей, публикующих сообщения в качестве свидетелей из первых рук. pic.twitter.com/t1YKQabuNL
— Ник Уотерс (@N_Waters89) 22 мая 2023 г.
Опасности генеративного ИИ не ограничиваются распространением дезинформации. Поддельный контент также может использоваться для манипулирования эмоциями и поведением людей. Например, фальшивая новостная статья может быть использована для подстрекательства к насилию или распространения страха.
Взрыв ИИ в Пентагоне — это тревожный звонок. Это показывает, что генеративный ИИ — мощный инструмент, который можно использовать как во благо, так и во зло. Важно осознавать опасности генеративного ИИ и предпринимать шаги, чтобы защитить себя от него.
Вот несколько советов, как защитить себя от генеративного ИИ:
- Относитесь критически к контенту, который вы видите в Интернете. Не верьте всему, что видите.
- Проверьте источник контента. Это из авторитетного источника?
- Ищите признаки того, что контент является поддельным. Например, плохая грамматика или правописание? Являются ли изображения или видео пикселизированными?
- Сообщите о поддельном контенте на платформе, где вы его увидели.
Нам нужно быть бдительными, чтобы защитить себя от опасностей генеративного ИИ. Осознавая риски и предпринимая шаги, чтобы защитить себя, мы можем помочь предотвратить использование генеративного ИИ во вред.
Source: Фейковый взрыв ИИ в Пентагоне потряс рынки