Новости

FAKE AND HYPE: КАК ЗАСТАВИТЬ ЛЮДЕЙ СОМНЕВАТЬСЯ

Автоматизированное определение фейков и поиск их источников возможны с помощью технологий искусственного интеллекта. Но даже эти алгоритмы все равно создают и задают люди, которые могут ошибаться или преследовать свои интересы. Как проверять достоверность информации, обсуждали спикеры сессии «Fake and Hype. Информационная мистификация. Искусственный интеллект против фабрики фейков».

Проблема распространения фейковой информации особенно обострилась во время пандемии. Одним из самых ярких фейков, по мнению директора по стратегическим коммуникациям РВК Екатерины Куманиной, стала новость о том, что для лечения COVID-19 нужно применять имбирь.

Основатель Think The Unthinkable Ник Гоуинг заявил, что однозначно определить, что такое фейк, непросто из-за размытости понятия. Например, президент США Дональд Трамп называет так любую невыгодную для него информацию, которую он хочет подвергнуть сомнению перед обществом.

«Фейком часто называют то, что кому-то не нравится. Человек, стремящийся манипулировать информацией, выдергивает факты из контекста и подает их так, как ему угодно. Поэтому достоверность данных сейчас нужно проверять постоянно. Но даже искусственный интеллект не дает 100% гарантии того, что информация не окажется фейковой, хотя алгоритмы позволяют определять ее с большей вероятностью», — сказал Ник Гоуинг.

Руководитель образовательного проекта «Полка» Юрий Сапрыкин считает, что распространять фейки людей побуждает их эмоциональность. Неслучайно они рассчитаны на быструю реакцию человека. В качестве примера он привел распространение информации о «смерти» режиссера Жана-Люка Годара.

«У человека при получении эмоциональной информации, как правило, выпадает звено, отвечающее за проверку исходной информации. Он может даже не посмотреть, какой именно аккаунт сообщает ему фейк. Поэтому нужно, чтобы у людей был навык базового недоверия к источникам информации, навык осторожности. Но дело не только в фейках. Например, есть специально создаваемый информационный шум — новости, которые пишутся по следам твитов известных людей, но не несут при этом никакой смысловой нагрузки», — отметил Юрий Сапрыкин.

Глава инновационного центра Высшей школы коммуникаций и журналистики им. Сами Офера в Мерказ Бейнтхуми Герцлия Ноам Лемельштрих Латар высказал прогноз, согласно которому в отдельных сферах алгоритмы заменят журналистов полностью к 2030 году. Это может сократить количество фейков.

«Роботы могут проверить информацию на достоверность, определить, кто создал какой-либо фейк. Но нужно не только это. Надо образовывать публику, чтобы люди были более подозрительны и обращались к надежному источнику. Кроме того, настоящие журналисты должны стараться выискивать правдивую информацию», — подчеркнул Ноам Лемельштрих Латар.

Задача «победить фейки» звучит как «объять необъятное», считает руководитель Центра когнитивных технологий АйТеко Илья Калагин. Если же сфокусироваться на конкретном явлении, событии или персоне, решение становится более вероятным. В таком случае можно говорить об автоматизации отрасли определения фейковой информации и, что важнее, ее источника.

Как подчеркнула Екатерина Куманина, научные изыскания по определению фейков ведут Facebook, Google и другие международные компании. Но даже они опираются не только на искусственный интеллект, но на труд экспертов и журналистов. Юрий Сапрыкин подытожил, что важно понимать, кто стоит за разработкой алгоритмов и какие интересы он преследует. Именно поэтому в сфере фейков человеческий фактор еще долго будет играть большую роль.