Мы все чаще слышим о случаях мошенничества с использованием дипфейка – передовой техники манипулирования видео- или аудиоматериалами с помощью искусственного интеллекта (ИИ). Технология Deepfake позволяет создавать реалистичные и трудноотличимые от оригинала фейковые мультимедийные материалы — видео- или аудиозаписи.
Дипфейки могут использоваться в сфере развлечений или образования, но они также часто используются для дезинформации, манипулирования и мошенничества. «Глубинные угрозы становятся все более продвинутыми, а их обнаружение становится все более сложным, что ставит перед нами новые задачи в области цифровой безопасности». Об этом, говорят исследователи из IDEAS NCBR, центра исследований и разработок в области искусственного интеллекта.
Ученые этого учреждения создали экспериментальный проект под названием ProvenView. Создателями решения являются постдок Шахриар Эбрахими и аспирантка Париса Хасанизаде. Это исследователи из Ирана, работающие в группе «Системная безопасность и конфиденциальность данных» под руководством проф. доктор философии Стефан Дзембовский.
Доказательство с нулевым разглашением
В исследовании используется доказательство с нулевым разглашением (ZKP). Это криптографический метод, который позволяет доказать правдивость определенной информации, не раскрывая подробностей о ней.
Десять лет назад технология ZKP считалась только теоретической областью, ближе к чистой математике, чем к приложениям информатики. Решение ProvenView является еще одним ярким примером того, как ZKP можно использовать в борьбе с угрозами современного цифрового мира.
Как уверяют создатели этой программы, ProvenView можно использовать при онлайн-взаимодействии и защите контента. Например, после завершения онлайн-встречи пользователь сможет проверить, действительно ли видео другого человека было снято с его веб-камеры.
«Это решение может быть полезно как для отдельных пользователей, которые могли бы использовать его для авторизации онлайн-встреч. Так и для создателей контента, которые могли бы таким образом усилить защиту своего изображения, опубликованного в видео на YouTube, от кражи и использования, например, в порнографии», – объяснил Шахриар Эбрахими.
Как работает технология ProvenView
Исследователи представили упрощенный пример того, как работает ProvenView. На первом этапе автор оригинального видео создает доказательство его подлинности. Цифровую запись, подтверждающую, что мультимедийный материал принадлежит ему. Программное обеспечение, обеспечивающее такую запись, может быть встроено в приложение видеозаписи или представлять собой отдельную программу. Затем, когда кто-то захочет проверить подлинность видео, он сможет увидеть это цифровое доказательство.
«И здесь нам помогают доказательства с нулевым разглашением. Благодаря продвинутой математике это доказательство можно проверить без необходимости просмотра самого видео. Любой может создать такие доказательства подлинности на своем собственном устройстве», — пояснил Шахриар Эбрахими. Он добавил, что в будущем это решение может стать дополнением к веб-браузеру или программе для редактирования видео.
На данный момент доказательства подлинности могут быть получены только после завершения видеозаписи. А для проверки происхождения мультимедийного материала – только примерно через час после разговора. Ученые из IDEAS NCBR надеются, что в будущем можно будет доказывать подлинность видео в реальном времени.
Читайте на тему: 4 тренда в области искусственного интеллекта