Часть серии статей о |
Искусственный интеллект (ИИ) |
---|
Поддельные фотографии в стиле ню — это создание фотографий в стиле ню, предназначенных для того, чтобы выглядеть как подлинные фотографии в стиле ню человека. [1] [2] Мотивами создания таких модифицированных фотографий являются любопытство, сексуальное удовлетворение, стигматизация или смущение объекта и коммерческая выгода, например, через продажу фотографий через порнографические сайты. [1] [3] [4] [5] [6] Подделки могут быть созданы с помощью программного обеспечения для редактирования изображений или с помощью машинного обучения . Поддельные изображения, созданные с использованием последнего метода, называются deepfakes .
Такие журналы, как Celebrity Skin, публиковали не поддельные снимки папарацци и незаконно полученные фотографии в обнаженном виде, показывая, что для таких изображений существовал рынок. [7] Впоследствии некоторые веб-сайты размещали поддельные обнаженные или порнографические фотографии знаменитостей, которые иногда называют подделками знаменитостей . В 1990-х и 2000-х годах поддельные обнаженные изображения знаменитостей распространились в Usenet и на веб-сайтах, что привело к кампаниям по принятию юридических мер против создателей изображений [8] [9] и веб-сайтов, посвященных определению достоверности обнаженных фотографий. [10] «Deepfakes», которые используют искусственные нейронные сети для наложения лица одного человека на изображение или видео кого-то другого, были популяризированы в конце 2010-х годов, что привело к опасениям по поводу использования технологии в фейковых новостях и порно мести . [11] [12]
Поддельные фотографии ню иногда путают с Deepfake порнографией , но это два разных явления. Поддельные фотографии ню обычно начинаются с несексуальных изображений, сделанных человеком, и просто создают видимость того, что люди на них обнажены (но не занимаются сексом). Глубокая фейковая порнография обычно начинается с сексуальных (порнографических) изображений или видео, сделанных человеком, и изменяет черты лица актеров, чтобы участники полового акта выглядели как кто-то другой. [ требуется цитата ]
В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало генеративно-состязательную сеть для удаления одежды с изображений женщин. Изображения, которые оно создавало, как правило, не были порнографическими, а просто обнаженными. Поскольку его создателю было доступно больше изображений обнаженных женщин, чем мужчин, все созданные им изображения были женскими, даже если оригинал был мужским. Приложение имело как платную, так и бесплатную версию. [13] Несколько дней спустя, 27 июня, создатели удалили приложение и вернули деньги потребителям, хотя различные копии приложения, как бесплатные, так и платные, продолжают существовать. [14] На GitHub была удалена версия этой программы с открытым исходным кодом под названием «open-deepnude». [15] Версия с открытым исходным кодом имела то преимущество, что позволяла обучаться на большем наборе данных обнаженных изображений, чтобы повысить уровень точности получаемого обнаженного изображения. [16] Позднее было выпущено следующее бесплатное программное обеспечение Dreamtime, и некоторые его копии до сих пор доступны, хотя некоторые были заблокированы.
В июле 2019 года в приложении для обмена сообщениями Telegram был запущен сервис deepfake-ботов , который использовал технологию искусственного интеллекта для создания обнаженных изображений женщин. Сервис был бесплатным и позволял пользователям отправлять фотографии и получать обработанные обнаженные изображения в течение нескольких минут. Сервис был подключен к семи каналам Telegram, включая основной канал, на котором размещался бот, техническую поддержку и каналы обмена изображениями. Хотя общее количество пользователей было неизвестно, на основном канале было более 45 000 участников. По оценкам, по состоянию на июль 2020 года на каналах обмена изображениями было распространено около 24 000 обработанных изображений. [17]
К концу 2024 года большинство способов создания обнаженных изображений из фотографий одетых людей были доступны на веб-сайтах, а не в приложениях, и требовали оплаты. [18]
Причины создания фотографий в стиле ню могут быть разными: от необходимости публично дискредитировать объект, личной ненависти к объекту или обещания материальной выгоды за такую работу со стороны создателя таких фотографий. [1] [3] [4] Поддельные фотографии в стиле ню часто нацелены на видных деятелей, таких как бизнесмены или политики.
This section needs expansion. You can help by adding to it. (November 2019) |
«Это поддельные обнаженные фотографии, измененные в фотошопе, и это одна из многих тактик, которые использовались, чтобы заставить меня замолчать».
В 2010 году в Корее были арестованы 97 человек за распространение в Интернете поддельных фотографий обнаженной группы Girls' Generation . [19] В 2011 году 53-летний мужчина из Инчхона был арестован за распространение еще большего количества поддельных фотографий той же группы. [20] [21] [22]
В 2012 году южнокорейская полиция выявила 157 корейских художников, чьи поддельные фотографии в обнаженном виде распространялись. [23]
В 2012 году, когда в сети появились поддельные фотографии Лю Ифэя в стиле ню, компания Liu Yifei Red Star Land Company объявила о проведении законного поиска, чтобы выяснить, кто создал и опубликовал эти фотографии. [24] [25]
В том же году китайский актер Хуан Сяомин опубликовал обнаженные фотографии, которые вызвали публичные споры, но в конечном итоге было доказано, что это были настоящие фотографии. [26]
В 2014 году супермодель Кейт Аптон пригрозила подать в суд на сайт за размещение ее поддельных фотографий в обнаженном виде. [27] Ранее, в 2011 году, этой странице угрожала Тейлор Свифт. [28]
В ноябре 2014 года певец Би Рейн был возмущен из-за фейковой обнаженной фотографии, которая распространилась по всему интернету. Информация показывает, что: «Обнаженная фотография Рейна была опубликована с потерянного телефона Ким Тхэ Хи ». Лейбл Рейна, Cube Entertainment , заявил, что человек на обнаженной фотографии — не Рейн, и с тех пор компания заявила, что примет строгие правовые меры против тех, кто публикует фотографии вместе с ложными комментариями. [29] [30]
В июле 2018 года полиция Сеула начала расследование после того, как на сайте корейской радикальной феминистской группы WOMAD была размещена поддельная фотография обнажённого президента Мун Чжэ Ина . [31]
В начале 2019 года Александрия Окасио-Кортес , политик- демократ , подверглась критике со стороны других политических партий за поддельную фотографию ее обнаженной в ванной. Фотография вызвала огромную волну скандала в СМИ в Соединенных Штатах. [32] [33] [34] [35]
Поддельные изображения обнаженной натуры можно создать с помощью программного обеспечения для редактирования изображений или приложений нейронных сетей. [12] [36] Существует два основных метода: [37]
Изображения такого типа могут оказывать негативное психологическое воздействие на жертв и могут использоваться в целях вымогательства . [1] [39] [40]
И перенеся свой крестовый поход против подделок на виртуальную территорию художников, мать актрисы Алиссы Милано запустила контр-сайт www.cyber-tracker.com, чтобы «дать знаменитостям возможность забрать» свои изображения. Лин Милано утверждает, что она сочетает «чувствительность к знаменитостям с жесткостью, необходимой для серьезного воздействия на веб-порнографов».