Николай Подосокорский (philologist) wrote,
Николай Подосокорский
philologist

Categories:

"Пуск, ложь и видео". Брук Борел - о том, как системы ИИ могут манипулировать видеоинформацией

Брук Борел — журналистка, автор книги «Чикагское руководство по проверке фактов» (2016). Недавно с серьезным отрывом выиграла соревнование с ИИ‑программой проверки фактов. Ниже размещена ее статья "Пуск, ложь и видео" в переводе на русский язык Н.Н. Шафрановской. Текст приводится по изданию: "В мире науки", 2018. №12.



В апреле этого года в интернете получило широкое распространение свеженькое выступление Барака Обамы. Стоя на фоне двух флагов, государственного и президентского, в белоснежной рубашке и черном костюме, Обама, глядя прямо в камеру, отчеканил: «Президент Трамп — полное и законченное ничтожество». Не переставая улыбаться, он продолжил: «А сейчас вы увидите, что ничего подобного я не говорил. По крайней мере публично. Но это мог сделать кто-нибудь другой». Экран разделился пополам, и на второй его половине появился актер и режиссер Джордан Пил; и все поняли, что на самом деле запись обращения Обамы — в полном соответствии с его мимикой и интонациями — «дублировал» Пил как своего рода цифровой чревовещатель. Но речь эта была подвергнута манипуляциям.

В наш век фейковых новостей это видео оказалось социальной рекламой, созданной новостной интернет-компанией BuzzFeed News и проиллюстрировавшей возможности применения новейшей технологии искусственного интеллекта, которая позволяет делать с аудио- и видеоматериалом то же, что и фотошоп с цифровыми изображениями: манипулировать реальностью. Результат получился не высшего класса. Внимательно присмотритесь и прислушайтесь к речи Обамы, и вы поймете, что говорит он слегка в нос. В какие-то моменты положение его губ не совпадает с текстом. Но эта быстро развивающаяся технология, предназначенная для создателей видеоигр и голливудских кинофильмов, превосходит все, что могли себе представить эксперты по безопасности и специалисты в области медиа.

Следующее поколение этих технологий позволит создавать фейковые «реальности» из каких-то наметок — не с помощью искажения существующего материала, как в случае с Обамой, а за счет конструирования событий, которых никогда не было. Последствия таких манипуляций непредставимы. Допустим, например, что приближаются выборы — и тут появляется фейковое видео дебатов, порочащее одного из претендентов. Или накануне публичного размещения ценных бумаг какой-нибудь крупной компании выпускается ролик с нападением на директора. Можно соорудить сюжет с никогда не имевшей места террористической атакой — и т.д. Даже если впоследствии будет доказано, что все эти новости — фальшивка, у аудитории вполне могут остаться сомнения в этом. Может даже случиться так, что мы перестанем верить практически всему, что видим и слышим, хотя многое из этого — правда.

Эксперты-технологи осознают скрытую опасность этой технологии, если применять ее в ненадлежащих целях. «Но пока они зациклились на привлекательности ее использования для обнаружения и раскрытия разного рода сведений, мало кого интересует, влияет ли это хоть как-то на восприятие фейковых видео», — говорит Нейт Персили (Nate Persily), профессор юриспруденции Стэнфордского университета. Среди прочего Персили исследует, какое влияние оказывает интернет на демократические институты; он входит в группу специалистов, утверждающих, что ограничить распространение дезинформации невозможно с помощью одних только технических инструментов. При решении вопроса о том, как адаптировать технологию к реальному миру, не обойтись без психологов, социологов, экспертов в области массмедиа.

«Мы должны заняться этим немедленно, — говорит он, — потому что в настоящее время в обсуждении возможностей видео, созданного с помощью искусственного интеллекта, лидирующие позиции занимают сторонники технологий». Наше доверие к демократическим институтам — правительству, прессе и т.д. — падает. Сейчас, когда социальные медиа играют роль ведущего канала распространения информации, влиять на публику с помощью фейковых новостей стало еще проще. И в отсутствие стратегии, противостоящей бесконтрольному распространению все более сложных технологий, наше хрупкое доверие может рассыпаться в прах.

Вполне безобидное начало

Своими корнями фейковые видео уходят в 1960‑е гг., когда появились изображения, созданные с помощью компьютеров. В 1980-х гг. эти спецэффекты вышли на передовые позиции, и с тех пор фанаты кино наблюдают, как технология развивается: от научно-фантастических фильмов до рукопожатия Форреста Гампа и Кеннеди в 1994 г. и оживления Питера Кушинга и Кэрри Фишер в фильме «Изгой-один», спин-оффе киносаги «Звездные войны». Целью всегда было «создание цифрового мира, где происходят любые невероятные события, — говорит Хао Ли (Hao Li), доцент кафедры компьютерных технологий Университета Южной Калифорнии и руководитель стартапа в области дополненной реальности под названием Pinscreen. — Как создать что-то, что кажется реальным, но на самом деле виртуально?»

В самом начале графикой в основном занимались художники, использовавшие компьютеры для создания трехмерных моделей, которые они затем раскрашивали вручную и пририсовывали различные детали, — весьма трудоемкий процесс. Примерно 20 лет назад некоторые специалисты в области компьютерного зрения пришли к следующей идее: вместо того чтобы тратить время на создание индивидуальных моделей, не лучше ли обучить компьютеры работать прямо с нашими данными? В 1997 г. ученые из Interval Research Corporation в Пало-Алто, штат Калифорния, разработали систему Video Rewrite, которая нарезала видеоизображение и изменяла конфигурацию исходного материала. Они создали клип, в котором Джон Кеннеди говорит: «Я никогда не встречался с Форрестом Гампом». Вскоре исследователи из Института биологической кибернетики Общества Макса Планка в Тюбингене научили компьютер извлекать черты лица из набора данных, состоящего из 200 трехмерных сканов человеческих лиц, для создания изображения нового лица.

Значительный прорыв в разработке систем, объединяющих компьютерное зрение, обработку данных и автоматизацию, произошел в 2012 г. и был связан с достижениями в таком направлении искусственного интеллекта, как глубокое обучение. В отличие от работ 1990-х гг., в которых использовались статические данные и было невозможно совершенствование, глубокое обучение более адаптивно. Как поясняет Сяочан Ли (Xiaochang Li) из Института истории науки Общества Макса Планка в Берлине, объекты, например изображение лица, представляют в виде битов данных. «Это тот случай, когда инженеры говорят: «Мы больше не собираемся моделировать объекты. Мы хотим моделировать наше пренебрежение ими и просто вводить данные, чтобы понять закономерности»».

В глубоком обучении используются слои простых математических функций — нейронные сети, которые со временем все лучше выполняют задачу. Например, компьютерщик может научить инструмент машинного обучения распознавать лица людей, вводя в компьютер сотни и даже тысячи фотографий и каждый раз сообщая: «Это лицо» или «Это не лицо». В конце концов, когда появляется изображение нового человека, система распознает ключевые признаки, связанные с чертами человеческого лица, и отвечает: «Это тоже лицо». Далее компьютерщики научились создавать изображения, похожие на лица реальных людей, используя алгоритм глубокого обучения под названием «генеративные сети». Логика была той же: обучение сетей на сотнях и тысячах изображений. Но теперь сеть основывалась на шаблонах, собранных из предъявленных образцов, для создания нового лица.

Некоторые компании сегодня используют тот же подход в области аудио. В этом году Google торжественно представила систему Duplex, ИИ‑ассистента, основанного на программном обеспечении WaveNet, позволяющем совершать телефонные звонки и издавать звуки, как обычный человек, включая такие междометия, как «О!», «Хм» и т.д. В будущем для получения фейковых видео политических деятелей не нужно будет использовать имитаторов, таких как Пил. В апреле 2017 г. запущенный в Канаде стартап Lyrebird представил аудиоролик с синтезированными голосами Обамы, Трампа и Хиллари Клинтон.

Но для обучения генеративных сетей нужны большие объемы данных и значительные трудовые ресурсы. Следующим шагом должно стать обучение ИИ самотренировке. В 2014 г. в Монреальском университете проделали такую работу с генеративно-состязательной сетью (GAN); она состоит из двух нейронных сетей, которые вступают в диалог друг с другом. Одна сеть представляет собой генератор, предъявляющий фейковые изображения, другая — дискриминатор, который учится отличать реальность от фейков. Без всякого вмешательства человека сети обучают друг друга, соревнуясь: дискриминатор заставляет генератор производить все более реалистичные фейки, генератор пытается обмануть дискриминатор.

GAN могут проделывать манипуляции самого разного рода. Так, система, созданная в Калифорнийском университете в Беркли, может превратить изображения лошадей в изображения зебр или трансформировать картины импрессионистов, например Моне, в живые реалистичные сценки. В мае этого года в Институте информатики Общества Макса Планка в Саарбрюккене изготовили «глубокое видео», в котором использовали один из типов GAN. Актер мог контролировать движения глаз, губ, мышц лица другого человека в предварительно отснятом материале. Сегодня метод работает только с портретными изображениями, где человек смотрит прямо в камеру. Если он изменит положение тела слишком сильно, в изображении появятся заметные цифровые искажения, например размытие пикселей вокруг лица.

Пока с помощью GAN не удается создавать сложные видеосюжеты, неотличимые от снятых. Иногда в результате получаются нелепые картинки, например человек с глазом во лбу. Но в феврале этого года компания NVIDIA нашла способ получать изображение лиц с небывалым разрешением, начав процесс с тренировки GAN на относительно небольших фотографиях и постепенно, шаг за шагом, повышая разрешение. Группа под руководством Хао Ли из Университета Южной Калифорнии использовала GAN для создания реалистичных изображений кожи, зубов и рта, что не под силу цифровой реконструкции.

Любая из этих технологий подвластна только узким специалистам. Но опыт BuzzFeed дает некоторые наметки на возможное будущее. Видео было создано с использованием бесплатной программы FakeApp, в которой применяется алгоритм глубокого обучения, но не GAN. В результате получают фейковые видео, которые прозвали «глубокими фейками», или «дипфейками» (гибрид «глубокого обучения» и фейков), в честь одного из первых создателей подобных роликов, пользователя сайта Reddit, применившего новую технологию для «пересадки» лиц знаменитостей порнозвездам. С тех пор многочисленные сетевые шутники создали с помощью FakeApp тысячи разнообразных видео, по большей части безобидных. Так, в результате их манипуляций Николас Кейдж появился в фильмах, где он никогда не играл, а лицо Трампа совместили с фигурой Ангелы Меркель. Однако подтекст более зловещий: сегодня любой, у кого есть компьютер, имеет возможность проделывать такие штуки.

Поле для фейков

Экспертов давно беспокоит, что компьютерное редактирование разрушает реальность. Еще в 2000 г. авторы одной из статей в MIT Technology Review предупреждали, что «видеть больше не означает верить» и что изображения «в вечерних новостях могут быть фейком — фальшивкой, созданной с помощью новой технологии манипулирования видео». Прошло 18 лет, но фейковые видео так и не вытеснили настоящие — и в первую очередь потому, что качественную фейковую продукцию все еще трудно создавать. BuzzFeed понадобилось 56 часов работы и помощь профессиональной программы-видеоредактора, чтобы сделать клип с участием Обамы.

Нужно учесть, что изменился и способ получения информации. Сегодня только половина взрослых американцев смотрят новости по телевизору, а две трети пользуются социальными сетями. С появлением интернета широкое распространение получили СМИ, обслуживающие специфическую аудиторию, в том числе сайты, распространяющие исключительно предвзятую информацию, намеренно подогревающие гнев и не соответствующие журналистским стандартам. Через интернет фейковые новости распространяются гораздо быстрее, чем когда-либо прежде. А помехи в фальшивых видео на маленьких дисплеях мобильных устройств гораздо менее заметны, чем на экранах обычных телевизоров.

Но что произойдет, если какой-нибудь дипфейк серьезного социального или политического содержания станет вирусным? На это даже специалист высочайшего класса ответит: «Не знаю», считает Джули Карпентер (Julie Carpenter) из Ethics + Emerging Sciences Group при Политехническом университете штата Калифорния в Сан-Луис-Обиспо, которая занимается исследованиями в области взаимодействия человека и робота. Возможно, мы получим ответ на этот вопрос во время выборов в Конгресс США. Мы уже были свидетелями неудачных попыток придать логичность дезинформации. Фальшивые новости — сфабрикованные тексты, составленные так, чтобы их было трудно отличить от реальных новостей, — тема, которая широко обсуждалась в связи с президентскими выборами в США в 2016 г. Согласно анализу, проведенному совместно специалистами из Принстонского университета, Дартмутского колледжа и Эксетерского университета в Англии в период между 7 октября и 14 ноября 2016 г., сайты с фейковыми новостями, в основном каналы из ленты новостей Facebook, посещал каждый четвертый житель США. Более того, в том же году наблюдался небывалый спад доверия к журналистам. По одной из оценок, всего 51% демократов и 14% республиканцев заявили, что они доверяют массмедиа.

Аналитических работ, посвященных фейковым печатным новостям, совсем немного. Однако некоторые исследователи полагают, что достаточно увидеть сфабрикованную информацию единожды, чтобы в дальнейшем нечто сходное показалось вполне правдоподобным, говорит Гордон Пенникук (Gordon Pennycook), доцент кафедры организационного поведения Реджайнского университета в канадской провинции Саскачеван. Точная причина этого феномена неизвестна. Если вы услышите, как Обама нелестно отзывается о Трампе, а затем натолкнетесь на другую фальшивку такого же рода, вы, возможно, с большей легкостью поверите, что это правда, потому что это знакомо.

По данным исследований, проведенных в Массачусетском технологическом институте, где проанализированы 126 тыс. сюжетов, размещенных в Twitter за период 2006–2017 гг., мы также больше склонны делиться фейковыми новостями, чем реальными, — и в первую очередь это касается политических событий. Новости о них распространяются быстрее, чем новости о финансах, природных катастрофах или террористических актах. Создается впечатление, что общество просто жить не может без сообщений о новых событиях. Они подхлестывают наши эмоции, воздействуют на самоидентификацию, подталкивают к тому, чтобы мы немедленно начинали что-то делать, еще не осмыслив ситуацию. Чем больше нас задевает очередной сюжет, тем скорее мы вовлекаемся в описанные в нем события и тем эмоциональнее реагируем.

Беспокоит тот факт, что видео — особенно эффективный способ разжигания страхов. «Когда вы осмысливаете визуальную информацию, вам кажется, что все происходящее гораздо ближе к вам в пространственно-временном или социальном отношении», — говорит Элинор Амит (Elinor Amit), доцент кафедры лингвистики и психологии Университета Брауна, чья работа посвящена выявлению различий в нашей реакции на текстовые и визуальные сообщения. Она полагает, что это различие имеет эволюционную природу: наше визуальное развитие опережает способность воспринимать записанные тексты, и мы в своей обычной жизни больше полагаемся на зрительную информацию, воспринимаемую мгновенно.

Фейковые видео уже фактически разрушают политические кампании. В июле этого года Элли Бет Стаки (Allie Beth Stuckey), телеведущая из Conservative Review, разместила в Facebook интервью с Александрией Окасио-Кортес (Alexandria Ocasio-Cortez), членом Демократической партии, кандидатом в конгресс от города Нью-Йорка. Видео было не дипфейком, а всего лишь старым добрым монтажом предыдущего интервью с новыми вопросами, что превратило ответы в бессмысленную болтовню. В зависимости от политических предпочтений зрителя видео воспринималось либо как очернительство, либо, чем и пыталась впоследствии оправдаться Стаки, как сатира. Так или иначе, его просмотрели за неделю 3,4 млн человек, появилось более 5 тыс. комментариев. Некоторым показалось, что Окасио-Кортес провалила интервью. «Она не знает, как и на что отвечать, — написал один из пользователей. — Да она просто тупица!»

Но это еще не все. Наши мрачные измышления могут быть опаснее для общества, чем само видео. Политический деятель может заявить, что его реальный дурной поступок, попавший на пленку, — на самом деле фальшивка. «Зная, что мастерски сработанные фейки действительно существуют, мы можем утратить доверие ко всем СМИ», — говорит Реймонд Пингри (Raymond J. Pingree), доцент кафедры по связям с общественностью Университета штата Луизиана. Пингри интересует вопрос, насколько люди уверены в своей способности отличать правду от подделки и как это влияет на их желание участвовать в политической деятельности. Когда человек утрачивает подобную уверенность, он становится гораздо более легкой добычей для лжецов и мошенников, и это приводит к тому, что он вообще перестает хотеть доискаться правды.

Игра в кошки-мышки

По мнению специалистов в области информатики, для исправления недостатков нередко требуется просто усовершенствование. Хотя недостатки в данном случае более сложны, чем просто ошибочный код, ученые считают, что можно создать алгоритмы, чтобы помечать фейки. «Некоторого прогресса в этой области добиться можно, — говорит Дэвид Эдельман (R. David Edelman) из проекта Массачусетского технологического института «Исследовательская инициатива в области интернет-политики», бывший советник Барака Обамы, на которого фальшивое видео с бывшим шефом произвело большое впечатление. — Я хорошо знаю этого парня, ведь я был его спичрайтером, однако не могу сказать, где в этом интервью правда и где ложь, — говорит он. — Но если меня можно обмануть, то алгоритм мог бы распознать цифровые подписи и выдающие фальшивку подергивания, незаметные человеческому глазу».

Из такого затруднительного положения можно выйти двумя путями. Одни полагают, что видео можно снабдить электронными подписями, аналогичными сложным клеймам, голограммам и другими характерным маркерам, которые используются в современных компаниях по печатанию денежных знаков для отсечения фальшивок. Каждая цифровая камера могла бы иметь уникальную подпись, которую трудно скопировать. Другие предлагают автоматически отлавливать фейковые видео с помощью детекторов. По-видимому, самой подходящей для таких детекторов можно назвать программу Media Forensics (MediFor), разработанную Управлением перспективных исследовательских проектов Министерства обороны США (DARPA). Она появилась в 2015 г., вскоре после того как один из российских новостных каналов выпустил сфабрикованные снимки, якобы сделанные со спутника, атаки украинского истребителя на малайзийский Boeing‑777.

Позже международная группа экспертов заявила, что самолет был сбит ракетой российского производства. Спутниковое изображение было получено без использования системы глубокого обучения, но, по словам Дэвида Дорманна (David Doermann), бывшего менеджера программы, DARPA уловило признаки надвигающейся революции и постаралось найти способы предотвратить ее. MediFor использует три подхода, которые можно автоматизировать с помощью глубокого обучения. Первый проверяет цифровые отпечатки записи видео на наличие аномалий. Второй следит за тем, соответствует ли видео законам физики, например насколько реален угол падения света. Третий фиксирует внешние параметры — например, проверяет, соответствуют ли погодные условия, представленные на видео, имевшим место в тот день. DARPA намеревается унифицировать эти детекторы и свести их воедино.

Подобные меры могут уменьшить число фейковых записей, но весь процесс пока напоминает игру в кошки-мышки, когда фальсификаторы подделывают цифровые клейма или разрабатывают алгоритмы глубокого обучения для обмана детекторов. «Мы не станем победителями в этой игре, — говорит Алексей Эфрос, профессор в области вычислительных машин и электротехники из Калифорнийского университета в Беркли, сотрудничающий с MediFor. — Мы можем только все больше и больше затруднять работу "плохих парней"». «Как бы то ни было, от применения всех этих инструментов нас отделяют десятилетия», — говорит Хани Фарид (Hany Farid), профессор в области вычислительных машин из Дартмутского колледжа. Пока в решении спорных вопросов мы можем полагаться на мастерство и интуицию таких судебных экспертов в области цифровых технологий, как Фарид. Специалистов столь высокого уровня можно пересчитать по пальцам.

Как сохранить реальность

Даже если бы каждый из нас использовал детектор для того, чтобы разобраться с интернет-сообщениями, все равно между правдой и ложью будет существовать некий «сдвиг по фазе». Это одна из причин, по которой блокировка распространения фейковых видео — проблема для медиаиндустрии. «Она не менее важна, чем проблема создания самого продукта, — говорит Эдельман. — Если подделка возникнет неведомо где, то она там и застрянет, пока кто-то на нее не набредет, а Twitter или Facebook о ней не растрезвонят». Когда будет принято решение об ограничениях на распространение фейковых новостей, встанет вопрос: с какими законодательными последствиями столкнутся массмедиа и будет ли возможно их регулирование без ограничения свободы слова?

Создатель сети Facebook Марк Цукерберг в конце концов признался, что его платформа сыграла определенную роль в распространении фейковых новостей, — хотя признание это было сделано спустя десять месяцев после выборов 2016 г. Facebook создан для того, чтобы пользователи могли получать информацию и обмениваться ею друг с другом, в первую очередь руководствуясь ее актуальностью, а не тем, правдива ли она. Если иметь в виду, что этой соцсетью активно пользуются более 2 млрд человек, она выступает своего рода трутницей для любого, кто хочет «высечь пламя» какой-нибудь фейковой новости.

После этого Цукерберг пообещал принять меры. Теперь каждого пользователя обязали классифицировать источники новостей по их надежности (некоторые считают этот шаг уходом от ответственности). Кроме того, Цукерберг планирует использовать ИИ для информирования о наличии дезинформации. Деталей компания не раскрывает. Некоторые компьютерщики относятся к идее привлечения ИИ скептически. Так, Фарид заявляет, что все эти обещания наивны. Нескольким независимым экспертам удалось установить, как фейковые новости распространяются в Facebook, при том что очень многие подлинные данные заблокированы.

Сегодня никакие имеющиеся алгоритмы не спасут нас от дезинформации, если разработчики технологий для создания фейковых видео не займутся выяснением того, как их продукты будут использоваться по выходе из стен лаборатории. «Официально заявляю, — говорит Персили, — что компьютерщики, ведущие такого рода исследования, должны сотрудничать с психологами, политологами и специалистами по связям с общественностью». Пока подобное сотрудничество происходит в единичных случаях.

Однако в марте этого года Центр искусственного интеллекта в Финляндии объявил о начале реализации программы с участием психологов, философов, экспертов по этическим вопросам и других специалистов. А в апреле Персили совместно с Гэри Кингом (Gary King), политологом из Гарвардского университета, запустил проект Social Data Initiative. На первом этапе социологи, получив доступ к данным сети Facebook, займутся анализом распространения дезинформации. По причине отсутствия каких-либо действий в верхних эшелонах власти бремя ответственности за искоренение сфабрикованных видео ложится на плечи журналистов и детективов. В конце дипфейка с участием Обамы и Пила они оба заявляют: «Впредь мы должны относиться более критически к информации, предоставляемой интернетом. Пришло время полагаться только на проверенные источники новостей». И пусть ролик был фейковым, но в этих словах — истинная правда.

Вы также можете подписаться на мои страницы:
- в фейсбуке: https://www.facebook.com/podosokorskiy

- в твиттере: https://twitter.com/podosokorsky
- в контакте: http://vk.com/podosokorskiy
- в инстаграм: https://www.instagram.com/podosokorsky/
- в телеграм: http://telegram.me/podosokorsky
- в одноклассниках: https://ok.ru/podosokorsky

Tags: facebook, Барак Обама, Марк Цукерберг, СМИ, видео, журналистика, искусственный интеллект, медиа, нейросети, социальные медиа, фейки
Subscribe

Posts from This Journal “искусственный интеллект” Tag

promo philologist июнь 19, 15:59 3
Buy for 100 tokens
С разрешения издательства "Кучково поле" публикую фрагмент из книги: Берхгольц Ф.В. Дневник камер-юнкера Фридриха Вильгельма Берхгольца. 1721–1726 / вступ. ст. И.В. Курукина; коммент. К.А. Залесского, В.Е. Климанова, И.В. Курукина. — М.: Кучково поле; Ретроспектива, 2018.…
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your IP address will be recorded 

  • 7 comments