Убийство Live: сможет ли Facebook блокировать трансляции преступлений

В США полиция ищет мужчину, который совершил убийство, транслируя весь процесс на своей странице в Facebook. Этот случай стал очередным преступлением, запись которого распространилась благодаря новым технологиям. По мнению экспертов, возможность создания алгоритма, который мог бы автоматически распознавать и блокировать подобные видеоматериалы, существует. Однако для его эффективной работы необходима большая база аналогичных материалов. О том, какие инструменты могут взять на вооружение социальные сети, — в материале RT.

В американском городе Кливленд полиция разыскивает Стива Стивенса, который обвиняется в убийстве мужчины. Правоохранительные органы подтверждают, что подозреваемый транслировал убийство на своей странице в Facebook. Он также рассказал на видео о других совершённых им преступлениях.

На выложенной в интернете записи Стивенс говорит, что собирается «убить этого парня прямо сейчас». После этих слов он выходит из автомобиля и заговаривает с пожилым человеком, затем стреляет в него и садится обратно в машину. СМИ сообщили, что убитому было 74 года.

Это не первый случай использования трансляций в социальных сетях. Широкий резонанс в России получила история подростков из Пскова. В ноябре 2016 года 15-летние молодой человек и девушка вели в Periscope трансляцию последних часов своей жизни. Школьники забаррикадировались в здании, из которого стреляли по полицейской машине. А затем покончили с собой.

В январе в Чикаго четверо афроамериканских подростков похитили психически больного молодого человека. На записи видно, что преступники силой удерживают юношу и выкрикивают оскорбления в адрес белых людей и президента США Дональда Трампа. Трансляцию пыток и издевательств молодые люди вели с помощью сервиса Facebook Live.

Представители социальной сети заявили, что мужчина из Кливленда действительно вёл трансляцию, но само убийство выложил на страницу отдельной записью. В своём заявлении администрация Facebook назвала случившееся «ужасным преступлением» и заявила, что «не позволит размещать такого рода контент».

«Мы усиленно работаем над поддержанием безопасной среды в Facebook и находимся на связи с правоохранительными органами в чрезвычайных ситуациях, когда есть прямая угроза жизни и здоровью», — говорится в заявлении компании.

Facebook пока бессилен

Ранее, после нескольких резонансных случаев самоубийства в прямом эфире, Facebook предоставил пользователям возможность связаться с теми, кто собирается покончить с собой. Кроме того, о трансляции теперь можно сообщить модераторам социальной сети.

Однако принятые меры не помогут бороться с теми, кто замыслил преступление в отношении других. Кроме того, до сих пор не существует механизма, который мог бы автоматически блокировать трансляцию запрещённого контента. Однако, по мнению генерального директора компании Zecurion Алексея Раевского, такие технологии могут появиться в ближайшем будущем.

«Сейчас таких работающих технологий нет. Но технологии машинного обучения развиваются достаточно бурно. Facebook уже умеет по лицу распознавать, кто изображён на фотографии. Вполне возможно, что появится возможность по видео определять характер и содержание записи. На сегодняшний день, к сожалению, это делается только вручную», — заявил эксперт. 

С ним согласился советник руководителя «Аналитического центра при правительстве РФ» Юрий Аммосов. Он подчеркнул, что существует принципиальная возможность создания алгоритма, который будет самостоятельно анализировать содержание видео.

«Можно заходить от анализа содержания, можно заходить от признаков, которые сопровождают такие трансляции, можно заходить от подготовительной деятельности, можно от всего вместе», — пояснил Аммосов.

По его словам, самообучаемый алгоритм мог бы справиться с поставленной задачей. Такой механизм мог бы учиться реагировать, используя уже известные случаи преступлений, совершённых в прямом эфире. Однако для совершенствования алгоритма необходимо время, а точнее — большое число уже имеющихся видеозаписей.

«Пока такой алгоритм будет не очень качественным. По мере того как алгоритм будет учиться перехватывать такие ситуации, качество будет возрастать. Как и в жизни: для того чтобы научиться предвидеть какую-то преступную акцию, нужно знать признаки её совершения, а это возможно только из опыта», — добавил Аммосов.