CNN

Разоблачительница Facebook: соцсети выгодно толкать людей на крайности — так она заработает больше денег

Появление на Facebook рекламы, сравнивающей вакцинацию с порядками гитлеровской Германии, связано с тем, что бизнес-модель компании во многом строится на том, чтобы вызывать у людей острые эмоции, включая гнев, заявила в интервью CNN разоблачительница соцсети Фрэнсис Хауген. По её словам, Facebook мог бы снизить объёмы дезинформации на четверть практически одномоментно, если бы поменял свои алгоритмы.

У нас в эфире бывшая высокопоставленная сотрудница Facebook Фрэнсис Хауген. Это её первое интервью с того момента, как она давала показания подкомитету палаты представителей по коммуникациям и технологиям.

Фрэнсис, в репортаже Донни О’Салливана говорится о том, что Facebook не только позволяет писать сообщения, приравнивающие вакцины к холокосту, но и извлекает из них прибыль — ведь они берут деньги за то, чтобы продвигать их как проплаченную рекламу. Как так вышло? Это что, бизнес-модель такая?

ФРЭНСИС ХАУГЕН, разоблачительница Facebook: В рамках своей модели Facebook исправляет проблемы после того, как их находят. С 2018 года Facebook известен тем — и Марк Цукерберг говорил об этом публично, — что придерживается принципа иерархирования сообщений по степени вовлечения. Это означает, что первостепенное внимание уделяется контенту или рекламе исходя из их способности вызывать реакцию.

Обычно в таком случае идёт речь о самом оголтелом и сеющем рознь контенте, и это опасно, поскольку людей тянет именно к таким крайностям. Но Марк в то время сказал, что здесь нет ничего страшного. Вся беда, однако, в том, что ИИ упускает из виду огромное количество проблем. Что касается риторики ненависти, то выявляются лишь 3 – 5 процентов подобных высказываний.

Я не удивлюсь, если у них есть определённая политика против такого антипрививочного контента, однако при этом они упускают другие сообщения подобного рода.

Прошло уже почти два месяца с тех пор, как вы публично рассказали о проблемах Facebook в плане дезинформации. И когда вы увидели на этой неделе эту рекламу с надписью «Я родился в Америке, но сейчас оказался в Германии 1941 года», то удивились ли вы тому, что такое встречается настолько часто?

ФРЭНСИС ХАУГЕН: Вовсе нет. Как мне кажется, большинство людей не понимает следующий момент: несмотря на то, что большую часть своего времени я трачу, рассказывая о том, как иерархирование сообщений по степени вовлечения усиливает и продвигает наиболее противоречивый контент в нашей ленте новостей, провокационную рекламу, вызывающую сильные эмоции, продвигать дешевле, чем рекламу, выдержанную в сдержанных и сочувственных тонах.

Только вдумайтесь: что сильнее подтолкнёт вас к тому, чтобы написать возмущённый комментарий — одно из сообщений, о которых вы только что говорили, или же пост с надписью «Я поддерживаю наших медработников»?

Facebook в курсе этих проблем; они знают то, что психологи знают уже несколько десятилетий: гнев у людей вызывать легче. И эти алгоритмы с помощью подобного острого контента позволяют достичь максимального охвата с минимальными издержками.

Вчера, когда вы давали показания, вы сказали, что они, по вашему мнению, могут снизить объёмы дезинформации на 25 процентов буквально за одну ночь — если сменят алгоритмы. Всё настолько просто?

ФРЭНСИС ХАУГЕН: Ещё как. В системе иерархирования Facebook есть несколько компонентов, о которых люди знают уже многие годы. Даже одна-единственная переменная в этой системе серьёзно повышает уровень дезинформации. Facebook занимается огромным количеством вмешательств, которые не имеют отношения ни к цензуре, ни к поиску плохих или хороших идей. Они лишь пытаются не использовать систему в полную силу.

Facebook знает, что, если система будет работать быстро и на полную катушку, они заработают больше денег. Но если Facebook так и сделает и её привлекут к ответу, то они, скорее всего, выставят более безопасные настройки. Таким образом они будут упускать крошечную прибыль — сотую долю процента там, половину сотой процента здесь. В таком случае у нас будет значительно меньше дезинформации, причём не только на английском, но и всех других языках мира, большинство из которых Facebook не обеспечил никакой системой защиты.

Материал предоставлен CNN International.

Дата выхода в эфир 03 декабря 2021 года.

Материалы ИноТВ содержат оценки исключительно зарубежных СМИ и не отражают позицию RT
Публикуем в Twitter актуальные зарубежные статьи, выбранные редакцией ИноТВ
источник
CNN США Северная Америка
теги
Facebook интернет компьютер США
Сегодня в СМИ

INFOX.SG

Лента новостей RT

Новости партнёров