...

Модели с искусственным интеллектом распознают поддельные изображения, но люди улавливают поддельные видео

от Sova-kolhoz

Исследователи сравнили людей с искусственным интеллектом, чтобы выяснить, кто из них лучше разбирается в синтетических средах

AI models spot deepfake images, but people catch fake videos

Созданные искусственным интеллектом изменения лиц, подобные показанному здесь, иллюстрируют, как технология deepfake может убедительно изменять человеческие черты в видео. Недавние исследования дают представление о том, как мы можем бороться с глубокими подделками с помощью искусственного интеллекта.

Системы искусственного интеллекта намного лучше людей распознают глубокие подделки изображений, но когда дело доходит до глубоких подделок видео, у людей все еще может быть преимущество. Таков неожиданный вывод из нового исследования, в котором люди противопоставляются машинам в борьбе за обнаружение цифровых подделок. Результаты показывают, что в будущем людям и машинам необходимо будет работать сообща, чтобы выявлять глубокие подделки и бороться с ними, сообщают психолог Натали Эбнер и ее коллеги 7 января в журнале «Когнитивные исследования: принципы и последствия«.

Глубокие подделки — это сгенерированные искусственным интеллектом изображения, аудио- и видеозаписи, которые могут ложно представлять, как выглядит, говорит или делает человек, и которые уже использовались для совершения финансовых махинаций, влияния на выборы и подрыва репутации. Они становятся все более убедительными с пугающей скоростью, обманывая как людей, так и модели искусственного интеллекта.

Чтобы определить, кто лучше распознает подделки — люди или машины, Эбнер и ее коллеги сначала попросили около 2200 участников и два алгоритма машинного обучения оценить реалистичность 200 лиц по шкале от 1 (фальшивые) до 10 (настоящие). Люди могли распознавать глубокие подделки только на уровне случайности, или примерно в 50 процентах случаев. Но машины работали лучше: один алгоритм давал правильный ответ примерно в 97 процентах случаев, а другой — в среднем с точностью 79 процентов.

AI models spot deepfake images, but people catch fake videos

Эти две фотографии были использованы в недавнем исследовании «Машина против компьютера». способность человека распознавать глубокие подделки. Можете ли вы сказать, который из них настоящий? (Подсказка: это тот, что слева.) Д. Пехливаноглу и др./Когнитивные исследования: принципы и следствия.

Затем исследователи попросили около 1900 участников-людей посмотреть 70 коротких видеороликов, в которых человек обсуждает какую-либо тему, а затем оценить, насколько реалистичным было лицо этого человека. Удивительным образом люди превзошли алгоритмы в решении этой задачи. Участники-люди давали правильный ответ в среднем в 63 процентах случаев, в то время как алгоритмы работали примерно на уровне случайности.

В настоящее время исследователи более глубоко изучают процесс принятия решений как человеком, так и искусственным интеллектом. Мы хотим знать: “Что использует машина, чтобы в некоторых условиях она была намного лучше человека? И чем это отличается от того, как рассуждает человек? Что мы видим в мозге, что человек начинает осознавать и усваивать?” — говорит Эбнер из Флоридского университета в Гейнсвилле. “Сейчас мы рассматриваем все эти различные аспекты взаимодействия человека и машины не просто для того, чтобы описать ”да» или «нет», но и для того, чтобы понять, почему они приходят к ответу «да» или «нет»».

Команда утверждает, что эти знания помогут людям понять, как наилучшим образом сотрудничать с искусственным интеллектом, чтобы ориентироваться в нашем будущем, насыщенном глубокими подделками.

Похожие публикации