
В процессе обучения алгоритма ученые решили задействовать базу данных Wikipedia — Talk pages. Платформа ориентирована преимущественно на редакторов статей, обменивающихся своими мнениями относительно верификации информации. Всего было обработано более 1,2 тысячи диалогов, в рамках чего нейросеть обучили отличать вежливые фразы и комбинации слов от оскорбительных. В частности, те беседы, что начинались со слова “Ты”, чаще всего отличались язвительностью и негативным окрасом.
Такой алгоритм впоследствии окажется полезным для модераторов различных крупных порталов, где отслеживать активность всех пользователей весьма проблематично. В ходе исследования с участием людей и нейросети точность респондентов при выявлении “токсичности” беседы составляла 72%, когда искусственный разум пока демонстрирует показатель 65%. В будущем ученые надеются его усовершенствовать.
Автор: Марина Вебер