Ученые научили нейросеть различать поддельные фото и видео

22.07.19

Открытие фотошопа сделало мир красивее, а фильтры в Instagram гламурнее. Но затем начались проблемы. Дошло до того, что программы научились раздевать людей так, что подделку не отличишь от настоящей фотографии. Такое положение вещей не устраивает никого. Неудивительно, что ученые из Калифорнийского университета, начали работу по решению проблемы deepfake фото и видео. Для этого они взяли базу отредактированных и необработанных фотографий. Заранее пометили их и начали обучать нейросеть распознавать подделки.

 

Сеть научили концентрироваться на пикселях вокруг границ объектов. Если подделка выполнена некачественно, человек и сам может заметить, что объект вставлен в фотографию. Но сегодня техника достигла уровня, когда вычислить это очень сложно. Зато компьютерное зрение не обманешь. Оно распознает закономерности изначального фото и выделяет чужеродный элемент. Точность нахождения близка к 100%.

Теперь ученые хотят, чтобы компьютер также справлялся с фальшивым видео. Здесь пока не все так гладко. Машина может указать на подозрительные кадры, но все равно требует участия человека. Но это, наверное, и хорошо. Не хватало еще, чтобы любимые фотографии или видео с моря признали фэйком и заблокировали. А вот пометочку «отфотошоплено» может быть ввести и не помешало бы. Хотя девушки будут против, скорее всего. В любом случае, система все еще нуждается в проверке человеком.

«Если вы хотите проверить достоверность всего, что есть в интернете, особенно с появлением deepfake-видео, то вы не справитесь с этим. Автоматизированная система же, вероятно, справится с этим более надежно. Так что это должна быть совместная работа человека и машины», — отмечают авторы исследования

Андрей Горбачев

Нет комментариев