Когда дело доходит до принятия решений в области здравоохранения, дезинформация может нанести непоправимый вред людям. Например, те, кто поверят недостоверным материалам о прививке, могут отказаться от вакцинации, а те, кто наткнутся на непроверенные способы лечения, рискуют попасть в больницу или даже умереть.

Подобное уже случилось в Нигерии из-за фейка о том, что вылечиться от коронавируса поможет гидроксихлорохин: отравилось множество граждан, их пришлось массово реанимировать. Чаще всего отследить первоисточник фейка довольно сложно, но иногда автор не просто не прячется, а пытается привлечь максимальное внимание аудитории, получив свой кусочек славы.

Особенно опасной ситуация становится, когда фейки распространяют люди, которые выдают себя за серьезных медицинских специалистов, но по факту ими не являются. Ориентируясь на «значимость» и раскрученность подобного спикера, люди могут начать неправильное лечение или предпринять какие-то необдуманные опасные действия, которые способны привести к весьма печальным последствиям.

Так, например, американский остеопат Шерри Тенпенни убеждает аудиторию, что прививки от COVID-19 вызывают мужское бесплодие. Эти заявления широко разошлись в Сети, люди постоянно пересылали друг другу ролики и комментировали их. В результате кто-то, возможно, принял решение не вакцинироваться, что могло стоить здоровья ему и его близким.

Даже если некоторые ИТ-гиганты вычисляют и блокируют таких распространителей фейков за нарушение политики платформы, те все равно находят способы высказаться. Показательный пример – Рашид Буттар, конспиролог, который является ярым противником вакцинации, а по совместительству и владельцем небольшого YouTube-канала. Решив нести в массы идеи о том, что Билл Гейтс и средства массовой информации замалчивают якобы реальную природу COVID-19, он сходил на интервью к Бет-Дэвиду, популярному финансовому YouTube-блогеру с более чем 2,2 млн подписчиков. В результате аудитория ярого антиваксера скакнула с 4,2 тыс. до 250 тыс. человек. За счет известного блогера Буттар не только раскрутил свой канал, но и значительно увеличил количество «открытых ушей» для продвижения фейков.

Для распространения фейков о ковиде используют котиков

Действительно, самый опасный вид авторов дезинформации о COVID-19 – те, кто пытается не просто распространить фейки, а еще и всеми доступными способами расширить число их потенциальных жертв. Например, американец Джозеф Меркола – еще один известный остеопат, но при этом распространитель дезинформации о коронавирусе в интернете – регулярно публикует посты с милыми животными, чтобы привлечь пользователей. А затем ничего не подозревающие любители котиков листают дальше и попадают на куда более опасные публикации о COVID-19.

Как же бороться с такими фейкоделами? Во-первых, мыслить критически. Я ни в коем случае не умаляю важности остеопатов, но они все-таки не врачи-вирусологи. Когда непрофильные специалисты начинают говорить про что-то, несвязанное с их непосредственной деятельностью, они, как в случае с распространением недостоверной информации по коронавирусу, занимаются откровенным вредительством.

Читать также:  Россия столкнулась с нехваткой кислорода

Во-вторых, с подобными персонажами стоит поступать так же, как и с другими распространителями дезинформации: выводить их контент из поля зрения потенциальных жертв. По вопросу того, что именно делать с такими публикациями, подходы разных организаций расходятся. Лондонское королевское сообщество, одно из старейших в мире научных учреждений, в одном из последних своих отчетов рекомендует ИТ-гигантам не «уничтожать» фейковый контент, а скорректировать алгоритмы так, чтобы они могли предотвратить распространение фейков о вирусе и помешать людям зарабатывать деньги на ложных заявлениях.

Британский Центр противодействия цифровой ненависти (CCDH) с ним не согласен и утверждает, что в некоторых случаях фейки недостаточно просто маркировать или пессимизировать, их надо удалять, так как они слишком опасны и широко расходятся. В пример исследователи приводят Plandemic – видео, ставшее вирусным в начале пандемии. Его авторы призывали отказаться от средств индивидуальной защиты и вакцинации, утверждая, что это вредит людям и повышает риск заболевания. Спикеры ролика выдавали себя за медицинских экспертов. ИТ-гиганты удаляли его из Сети, но упорные пользователи загружали его обратно, хотя в конечном итоге видео все же исчезло из интернета. Если бы его просто понижали в выдаче, оно могло бы навредить еще большему числу людей.

Выбор того или иного подхода – это дело каждой интернет-площадки и ее модерационных возможностей. Но что касается именно фейкоделов, то в борьбе с ними технических методов, вроде удаления или пессимизации, недостаточно: эти информационные сорняки необходимо беспощадно выпалывать. Чтобы люди не велись на фейки, их надо публично оспаривать, опровергать, перекрывать поток ложных фактов достоверной информацией из надежных источников. Нужно развенчивать псевдоавторитеты, не имеющие должных компетенций, но пытающиеся играть на уважении и доверии к профильным специалистам, особенно в тревожное пандемийное время. И соцсетям в этом вопросе надо помочь государству и настоящим экспертам, оперативно выявляя фейки и научив свои алгоритмы продвигать полезную и правдивую информацию.

В России уже предприняты первые шаги в этом направлении: в прошлом году крупнейшие медиахолдинги, издания и ИТ-компании подписали меморандум о борьбе с фейками. С его помощью они планируют дать отпор недостоверной информации в интернете и создать безопасную информационную среду. Сейчас внутри группы подписантов разрабатываются правила противостояния ложным материалам. Хотелось бы, чтобы зарубежные ИТ-гиганты также присоединились к российским, ведь ключевое в борьбе с фейками – единство и слаженные действия на благо пользователей.