Большинство россиян не могут отличить дипфейки от реальных фотографий
В ходе исследования аналитики MWS AI обнаружили, что более 60% россиян не могут отличить фотографии, созданные искусственным интеллектом (ИИ), от настоящих изображений.
Эти данные были предоставлены РИА Новости. Согласно результатам исследования, респондентам показывали десять фотографий людей, из которых четыре были сгенерированы ИИ, а шесть были настоящими снимками. Три из четырех сгенерированных фотографий были созданы с использованием специализированной нейросети для дипфейков, а четвертая - с помощью обычной языковой модели на основе текстового описания.
Это исследование поднимает важный вопрос о том, как технологии ИИ могут влиять на восприятие реальности и создавать иллюзию реальных событий. Степень развития современных алгоритмов позволяет создавать убедительные дипфейки, которые могут быть использованы для манипуляции информацией и обмана общественного мнения.Интересно, какие последствия могут возникнуть в обществе, если большинство людей не смогут различить между собой реальные фотографии и те, которые были созданы при помощи ИИ. Возможно, это приведет к усилению доверия к поддельным материалам и усугубит проблему фейковых новостей. Важно обсуждать эту тему и развивать способы защиты от потенциального воздействия дезинформации, создаваемой с помощью технологий ИИ.В мире современных технологий все чаще возникает проблема различения дипфейков от настоящих фотографий. Опрос, проведенный MWS AI, показал, что более 60% россиян испытывают затруднения в определении искусственно сгенерированных фотографий от реальных снимков. Это вызывает серьезные вопросы о доверии к информации, которую мы видим в сети. По результатам исследования, проведенного специалистами, уровень распознавания фотографий, созданных нейросетями для генерации изображений лиц, оказался невысоким. Большинство участников опроса не смогли правильно отличить сгенерированные портреты от реальных людей, что подчеркивает актуальность проблемы фейков в современном мире. Интересно, какие меры могут быть предприняты для повышения осведомленности об использовании дипфейков и защиты от их негативного влияния. Результаты данного исследования будут представлены на конференции ЦИПР-2025, где эксперты смогут обсудить возможные пути решения этой проблемы и разработать стратегии борьбы с дезинформацией.Сегодня дипфейки стали настолько реалистичными, что 81% участников опроса были уверены, что фотография, которую они видели, изображает настоящего человека.
Интересно, что аналитики обнаружили, что искусственный интеллект чаще всего распознавался как сгенерированный обычной моделью ИИ.
По словам специалистов из MWS AI, это происходит из-за того, что нейросети, созданные для генерации лиц, смогли достичь невероятной реалистичности за последние годы. Они могут точно воспроизводить текстуру кожи, симметрию черт лица и светотеневые переходы, делая итоговое изображение почти неотличимым от настоящей фотографии.
Специалисты компании утверждают, что в настоящее время существует несколько способов обеспечения безопасности в цифровой среде, особенно в условиях распространения генеративного искусственного интеллекта. Одним из таких способов может стать добровольная маркировка контента, созданного при помощи искусственного интеллекта, в сфере маркетинга и рекламы. Также важным является повышение безопасности финансовых сервисов и развитие стандартов для использования искусственного интеллекта в государственных решениях. Кроме того, специалисты подчеркивают значимость образовательных программ, направленных на повышение цифровой грамотности.Большинство опрошенных лиц, в свою очередь, оценили три из шести представленных фотографий как дипфейки. Это свидетельствует о том, что распознавание поддельных изображений становится все более важной задачей в современном цифровом мире. Понимание различий между настоящими и искусственно созданными контентом становится ключевым навыком для обеспечения безопасности и достоверности информации в сети.В целом, обеспечение безопасности в цифровой среде требует комплексного подхода и внедрения различных мер, начиная от технических инструментов до образовательных программ. Важно учитывать разнообразные аспекты использования искусственного интеллекта и развивать стратегии для защиты от потенциальных угроз, связанных с его применением.Источник и фото - ria.ru