Регулярные жалобы на fake news стали частью нашей обыденной жизни. Такой же как и попытки решить любую проблему с помощью так называемого искусственного интеллекта. Массовое внедрение алгоритмов, которые должны отсеивать вредоносные фейки началось ещё пару-тройку лет назад. Но спустя время эксперты и даже некоторые менеджеры стали почему-то призывать к проявлению осторожности. Оказалось, что да, технологии не способны решить эту проблему, так как об этом мечталось. Стали появляться достаточно серьёзные публикации которые описывают проблему и доказывают, что её решение, в том виде как его продавали разработчики, в общем-то и невозможно.
Тут, конечно, нужно оставить за скобками многочисленные провалы, которые принято объяснять тем, что в интернете кто-то пишет неправду. При этом фейками называется всё то, что показывает непрофессионализм и непоследовательность горе-пиарщиков. Проще говоря, за многими рассказами об ужасных фейках, которые все испортили, стоит обычное неумение выстроить минимально последовательную и непротиворечивую стратегию коммуникации.
Это, в общем-то, понятная история, но как и было сказано, мы оставляем её за скобками. Речь идёт именно о технологических решениях, даже самые продвинутые из которых, как внезапно выясняется, неспособны обнаруживать нежелательные тексты, с хоть сколько-нибудь приемлемой точностью. Условно говоря, всё чего удалось добиться в реальности, это обнаружения упоминания каких-то тем или фактов, но система не может понять контекст, так как она не обладает социальным, культурным и иным бэкграундом.
Но самым сложным оказалось даже не это. Все искатели фейков, дипломатично умалчивают о том, что реальной задачей является не поиск каких-то недостоверных фактов, вроде того, что в интернете кто-то написал, что 2+2=5, вовсе нет. По-настоящему их волнует не сама информация, а то, как она влияет на аудиторию. То есть, на самом деле, цель не распознать фейк, а определить какая информация и каким образом способна оказать влияние на аудиторию.
И вот с этим оказалось все совсем плохо. Что и не удивительно, так как это всё чаще становится проблемой даже для большинства людей работающих в сфере связей с общественностью. И уж совсем недалёкий человек может верить в заклинания, мол, подождите, подождите, сейчас вот наберём ещё трехлитровых банок с датасетами, поставим их обучаться у телевизора и всё заработает как надо.
В итоге западные исследователи всё чаще призывают к тому, чтобы использовать гибридные системы: автоматика ищет быстро распространяющиеся публикации по конкретным темам, передаёт их людям, а те уже принимают решения. То есть, по сути, создание своего аналога китайского Умаодана, неспящей армии из сотен тысяч специально подготовленных цензоров. Правда, тут делаются оговорки, которые требуют, чтобы такие системы были максимально прозрачны и доступны для общественного аудита.
Веры в то, что Россия останется в стороне от такого сомнительного прогресса, к сожалению нет. Уровень образования и мифологические архетипы народных сказок позволяют впаривать начальству любые волшебные пилюли и чудо-кнопки, нажатие которых решает все проблемы. А значит, что мы услышим ещё немало обещаний решить проблемы, с которыми не справился естественный интеллект, с помощью искусственного. Всё будет работать, надо только подождать. И увеличить финансирование, конечно. Как говорится в определённых кругах: «перспективная тема».