DT: эксперты предупреждают, что внедрение искусственного интеллекта способно повысить риск дискриминации

AP
Согласно новому отчёту центра финансовых технологий Банка Англии, созданные на базе искусственного интеллекта самообучающиеся алгоритмы не гарантируют объективное отношение к клиентам и сотрудникам. Напротив, использование «расистски и сексистски» настроенных ботов иногда приводит к дискриминации, пишет The Daily Telegraph. В частности, алгоритмы предлагали женщинам более низкие кредитные лимиты, чем мужчинам, и выставляли им отрицательные оценки при подборе персонала. Это может создать проблемы для банков, страховщиков и финансовой системы в целом, предупреждают эксперты.

Банк Англии предупреждает, что «расистские и сексистские» алгоритмы на базе искусственного интеллекта представляют опасность для финансовой системы, поскольку спровоцированная ими потенциальная дискриминация клиентов и сотрудников может усугубить риски для экономической стабильности, сообщает The Daily Telegraph. 

Согласно новому отчёту, который подготовили специалисты центра финансовых технологий Банка Англии, созданные на базе искусственного интеллекта самообучающиеся алгоритмы не гарантируют беспредвзятого и объективного отношения. Напротив, они способны улавливать и брать за основу предвзятые оценки и наборы данных, что затем может быть использовано для дискриминации клиентов или сотрудников, поясняется в статье.

По словам аналитика Банка Англии Кэтлин Блейк, которая приняла участие в подготовке данного отчёта, это может создать серьёзные проблемы для банков, страховщиков и финансовой системы в целом. Потенциальная дискриминация, к которой может привести использование подобных алгоритмов, способна усугубить риски для финансовой стабильности, подрывая доверие к системе в целом, предупредила она.

В частности, применение «предвзятого или несправедливого» алгоритма может привести к репутационным и юридическим рискам для компаний и стать поводом для проверки со стороны регулирующих органов, также пояснила Блейк, напомнив про ряд скандальных ошибок, которые были выявлены за последние годы.

Например, программа на базе искусственного интеллекта, которую применяли компании Apple и Goldman Sachs для принятия решений по заявкам на получение кредитных карт, как выяснилось, предлагала для женщин более низкие кредитные лимиты, чем для мужчин. Этот вопрос стал поводом для проверки со стороны Департамента финансовых услуг штата Нью-Йорк в 2021 году. Специалисты тогда пришли к заключению, что это не было преднамеренным и лишь «демонстрировало недостатки в сфере обслуживания клиентов и прозрачности», говорится в статье.

С ещё одной «ловушкой», связанной с системами искусственного интеллекта, пришлось столкнуться компании Amazon, которая использовала такой алгоритм для подбора персонала. «Кандидаты-женщины при этом получали отрицательную оценку, поскольку алгоритм был обучен на базе резюме, которые получила компания за 10-летний период, и отражал доминирование мужчин в этой отрасли», — рассказала Блейк.

В 2018 году руководство Amazon приняло решение отказаться от применения такой системы, опасаясь проявлений сексизма, после того как было обнаружено, что эта программа понижала рейтинг соискателей, если в их резюме встречалось слово «женский» — например, «глава женского шахматного клуба», поясняется в статье.

Подобные промахи могут создать проблемы для банков, страховщиков и финансовой системы в целом, предупреждают эксперты. В свою очередь, премьер-министр Великобритании Риши Сунак тоже выразил растущую обеспокоенность в отношении технологий искусственного интеллекта, отмечает The Daily Telegraph. 

В прошлом месяце британское правительство предостерегло о том, что такие технологии могут использоваться для создания биологического оружия и что это может выйти из-под контроля. Министерство науки, инноваций и технологий распространило заявление, в котором говорится: «Мы находимся на перепутье человеческой истории, и поворот не в ту сторону стал бы колоссальной упущенной возможностью для человечества».

Материалы ИноТВ содержат оценки исключительно зарубежных СМИ и не отражают позицию RT