Новостная лента

Алгоритмы против языка нетерпимости

12.02.2016

 

Специалисты в области бизнес-информатики разработали программу, которая автоматически распознает и регистрирует вербальные атаки в социальных сетях. Особенность: алгоритм идентифицирует не только потенциально вредоносный контент, но и то, какой группе населения он может навредить. В будущем такая программа сможет поддерживать модераторов, которые следят за соблюдением сетевого этикета в социальных сетях.

Изображение: cafreitas/ thinkstock.

 

Ежедневно на страницах Facebook, Twitter и Ко появляются миллионы сообщений и комментариев. Некоторые из них имеют одну цель: оскорбить других людей, их дискредитировать и против них натравить других.

 

Несколько лет назад вербальным атакам в Интернете подвергались прежде всего школьники и учителя. Сегодня Интернет-пользователи недовольны общем национальными группами, политиками и журналистами.

 

Как и при издевательстве в реальном мире, сообщения в киберпространстве могут сильно разить. «Кроме того, комментаторы часто призывают к насилию», – рассказывает Уве Бретшнайдер (Uwe Bretschneider) из Галле-Виттенбергского университета имени Мартина Лютера. Учитывая это, операторы сайтов разработали базовые правила респектабельного общения, так называемый сетевой этикет. Пользователей, которые его нарушают, блокируют.

 

До сих пор модераторы вынуждены вручную проверять, определенные пользователи не проявляют нетерпимости в своих заметках – процедура, требующая много времени. Благодаря Бретшнайдерові и его коллегам это может скоро измениться, потому что бизнес-информатики разработали компьютерную программу, которая способна взять на себя это задание.

 

«Программа анализирует комментарии и ищет слова (группы слов) из определенной базы данных», – пояснил Бретшнайдер. Это могут быть, например, бранные слова или призывы к насилию. Базу данных можно корректировать в любой способ. Если сообщение признается языке нетерпимости, программа его автоматически удаляет или предлагает проконтролировать модератору.

 

В общем, это не новое. Другие ученые разработали подобные методы, которые изобретаются в текстах определенные сроки. «Относительно языка нетерпимости очень важно знать, против кого направлено определенное высказывание», – говорит ученый. Учитывая это, он дополнил свой алгоритм дополнительной опцией. Он анализирует комментариев в тексте дискуссии на профилях в Facebook и определяет адресатов высказывания. Особенно часто они направлены против беженцев, политиков и медиа.

 

Пользу такого алгоритма зависит от того, насколько хорошо и как точно он определяет язык нетерпимости. Это проверил ученый благодаря дополнительному пакету данных: он собрал сообщения из службы передачи коротких сообщений Twitter, сообщения с форумов в Интернете и комментарии из открытых Facebook-страниц.

 

Эти данные он проанализировал вручную, чтобы иметь материал для сравнения результатов работы своего программного обеспечения. В конце концов Бретшнайдер дал возможность программе проанализировать те же данные. Результат: 70 % признанных системой совпадений были корректными, около 40 % комментариев остались нераспознанными. На первый взгляд, это может огорчать, но существенно сокращает время, затраченное модераторами на осуществление контроля.

 

Бретшнайдер подчеркивает: они не разрабатывали алгоритмы цензуры или мониторинга: «речь Не идет о том, чтобы нарушать право человека на свободное выражение своего мнения и запрещать определенные взгляды». Программа проверяет лишь образ, в который эти взгляды высказаны. С остальными демократия имела бы справиться.

 

 

Algorithmus gegen Hate Speech

Martin-Luther-Universität Halle-Wittenberg, 07/02/2017

Зреферувала Соломия Кривенко

You Might Also Like

Loading...

Нет комментариев

Комментировать

Яндекс.Метрика