Инструменты для создания изображений с помощью искусственного интеллекта сейчас находятся в центре опасений по поводу возможной дезинформации на выборах. И эти опасения, конечно же, появились, несмотря на политику, направленную на предотвращение дезинформирующего контента. Исследователи из центра противодействия цифровой ненависти обнаружили, что инструменты искусственного интеллекта, включая разработки OpenAI и Microsoft, могут использоваться для создания изображений, подпитывающих фальсификации, связанные с выборами.
Используя инструменты генеративного ИИ, исследовательский центр создал изображения, изображающие такие сценарии, как президент США Джо Байден в больничной койке и работники избирательных комиссий, уничтожающие машины для голосования. Создание таких изображений вызвало тревогу в преддверии предстоящих президентских выборов в США. Исследователи протестировали различные инструменты ИИ, включая чат OpenAI, GPT, а также создатель изображений от Microsoft и Midjourney.
Все эти инструменты ИИ могут создавать изображения на основе текстовых подсказок, говорится в отчёте. Конечно, высока вероятность использования этих изображений в качестве ложных доказательств, что может подорвать доверие к выборам.
Было подписано соглашение между 20 технологическими кампаниями, включая OpenAI, Microsoft и Stability AI, о сотрудничестве по предотвращению вмешательства, вводящего в заблуждение ИИ-контента в мировые выборы. Однако компания midjourney, не вошедшая в число первоначально подписавших соглашение, оказалась наименее эффективным инструментом. Согласно отчёту, она генерировала вводящие в заблуждение изображения в 65% тестов.
В ответ на это основатель Midjourney Дэвид Холлс упомянул об обновлениях, связанных с выборами в США, и подчеркнул изменения в практике модерации. Компания Stability AI недавно обновила свои правила, запретив мошенничество и продвижение дезинформации. В то время как OpenAI заявила, что работает над мерами по предотвращению неправомерного использования своих инструментов ИИ.
Дата выхода в эфир 8 марта 2024 года.