• Актуальнае
  • Медыяправа
  • Карыснае
  • Кірункі і кампаніі
  • Агляды і маніторынгі
  • Рэкамендацыі па бяспецы калег

    Как люди относятся к сгенерированным текстам и изображениям

    Искусственный интеллект активно используют многие контент-мейкеры, от авторов книг до создателей подкастов. Отличить сгенерированные изображения, видео и тексты от созданных человеком становится все сложнее, и все же аудитория чувствует разницу и выбирает человека. Рассказываем, почему.

    Как люди относятся к сгенерированному контенту

    Выява: te-st.org

    Отношение к нейросетям

    Сгенерированные иллюстрации и художественные изображения нравятся 56% опрошенных. Трети они нравятся даже больше нарисованных человеком. В то же время, работы, созданные человеком, вызывают более сильные и положительные эмоции, чем сгенерированные. Люди, даже не имея информации о происхождении картин, называют созданные человеком произведения более осмысленными, чем сгенерированные.

    Однако, изображения не так часто выступают как самостоятельный продукт. Обычно они визуально сопровождают статьи, посты и тд. и не несут большой смысловой нагрузки. Вероятно, аудиторию меньше волнует происхождение развлекательного контента. Зато волнует художников — 74% творцов посчитали неэтичным использование ИИ для создания художественных работ. В большей степени из-за того, что модели обучались на их творчестве без их разрешения, а теперь конкурируют с ними, копируя их художественный стиль. (Мы рассказывали, как художники борются за свои права).

    Люди распознают тексты нейросетей немногим лучше, чем изображения. 53% правильно определили автора текста и 48% — создателя картинки. Это уровень случайного угадывания. Процент правильно ответивших несколько увеличивается, если им предлагают оценить фото человека, а не художественное изображение, но не сильно — всего до 61%.

    Большинство респондентов не хотят читать новостные статьи, написанные искусственным интеллектом. Только 20% считают, что ИИ-журналистика – хорошая идея.

    При этом респонденты не видят ничего предосудительного в том, чтобы ИИ повышал эффективность журналистской работы. То есть, нейросети могут помогать в создании новостного контента — например, писать краткое саммэри статей, переводить материалы и улучшать пользовательский опыт — но их применение не должно быть заметно читательскому глазу. Люди могут оценивать некоторые сгенерированные тексты, например, рекламные объявления, как более качественные, чем написанные человеком, но как только им сообщают, кто написал текст, они повышают оценку «‎человеческого» текста.

    Google начнет помечать изображения, созданные ИИ

    Несмотря на это, для редакций, особенно небольших, выгодно иметь нейросетевого сотрудника. Намного проще и быстрее отредактировать сгенерированный текст или поправить картинку, чем ждать, пока то же самое с нуля сделает человек. Такой авторский контент будет становиться более ремесленным и дорогим по сравнению со сгенерированным.

    Что влияет на реакцию

    Как правило, понимание технологии уменьшает подозрительность и приводит к более спокойному отношению. 67% ответивших считают, что хорошо понимают, что собой представляет искусственный интеллект. Те, у кого есть опыт использования моделей text-to-image, оценили значимость этой технологии ниже, чем те, кто ни разу не генерировал картинки. Тем не менее, у 52% опрошенных инструменты на основе ИИ вызывают тревогу, против 54%, у которых он вызывает радость и восторг.

    Оптимистичнее всех настроена молодежь: 64% зумеров относятся к ИИ с энтузиазмом по сравнению с 38% людей старше 60. Те, кому меньше 28, намного чаще используют продукты и услуги, в «‎составе» которых есть ИИ-модели, и знают об этом. Они чаще взаимодействуют со сгенерированным контентом и лучше его распознают.

    Причина не только в том, что молодые люди обычно быстрее осваивают новые технологии, но и в том, что они пользуются ими на практике.

    Жители стран с низким и средним Индексом развития человеческого капитала (то есть экономически менее развитые и с низким уровнем жизни) больше беспокоятся о дезинформации и влиянии ИИ на выборы, чем жители стран с высоким индексом развития. Скорее всего, это из-за того, что жители стран с низким индексом развития в целом меньше доверяют политикам и СМИ. Чем больше люди замечают фальсификаций и искажений, тем более критично они смотрят и на технологии производства и доставки контента, которые становятся частью дезинформационных кампаний. 

    Отчасти на реакцию влияют культурные особенности. Люди воспринимают медиапродукты, в особенности, тексты, как диалог с автором, что добавляет элемент межличностной коммуникации во взаимодействие с контентом. Представители культур, в которых важна не только вербальная коммуникация, но и личность и поведение собеседника, менее благосклонны к сгенерированным новостным сообщениям. Они оценивают как смысл сообщения, так и подачу, но алгоритмы обычно выдают сухие и лаконичные новостные тексты. 

    С чем связаны опасения

    Людей беспокоит дезинформация: согласно половине опрошенных, искусственный интеллект усугубит эту проблему, ведь с его помощью проще создавать реалистичные фейки. По мнению респондентов, только 44% населения могут отличить фейкньюс от правды (точность своего личного фейкньюс-радара они нескромно оценили в 66%). В связи с этим, генерация новостей на чувствительные и значимые темы, как политика, вызывает дискомфорт, а вот сгенерированные заметки о спорте считаются допустимыми. 

    Как медиахолдинг создал свою собственную «AI-лабораторию»: что они делают, с какими трудностями столкнулись и что советуют другим редакциям

    Причина не только в том, что тема спорта реже становится предметом пропагандистских манипуляций, и что в целом люди могут сами верифицировать результаты соревнований. Но и в том, что новости про статистику не нужно аккуратно, с оговорками и эмпатией, объяснять. Это особенно важно в случае с тяжелыми новостями, когда требуется ввести читателя в контекст и предоставить экспертное мнение. Впрочем, упоминание ИИ в отношении политики всегда вызывает стресс у респондентов: они видят риски искажения фактов, использования ИИ для онлайн-рекламы партий и кандидатов и тд. 

    Недоверие к искусственному интеллекту также связано с опасениями в его предвзятости. ИИ-модели обучались на текстах и изображениях, созданными людьми и потому иногда содержащими стереотипы и стигмы, которые модели затем воспроизводят. Респонденты из стран с высоким уровнем дохода считают, что ИИ будет дискриминировать отдельные группы людей. Впрочем, опрошенные в Таиланде, Индонезии, Перу, Бразилии и т.д. придерживаются противоположного мнения.

    Свой вклад в подозрительное отношение к нейросетевым журналистам и художникам вносят и общие страхи вокруг искусственного интеллекта. В том числе, что искусственный интеллект быстро развивается и вскоре лишит работы и представителей других профессий, что с его помощью можно наводнить Интернет дипфейками и тд. Это приводит к предвзятости в оценивании сгенерированных работ по сравнению с созданными человеком, где предпочтение отдается последним.

    Отдельный сложный вопрос — непрозрачность использования ИИ в медиа. Когда аудитория понимает, зачем в СМИ нужны нейросети, она чувствует себя спокойнее и понимает, чего ожидать. Но с другой стороны, осведомленность читателей о том, что новостные организации применяют ИИ, может понизить их доверие. Исследования показывали, что новости за авторством нейросетей воспринимаются как менее надежные, чем написанные человеком. 

    В целом, отношение к ИИ становится более настороженным: в 2021 году 39% ответили, что продукты и услуги, в которых используется ИИ, вызывают у них тревогу. А в 2023 — 52%. Для сравнения: доля тех, кто считает, что такие продукты и услуги имеют больше достоинств, чем недостатков, выросла всего на 3 п.п, с 51% до 54%. Но повышение критичности относительно возможности распознавать сгенерированные тексты и изображения могло бы снизить градус напряженности вокруг генеративных нейросетей. 

    Источники

    How peo­ple view AI, dis­in­for­ma­tion and elec­tions — in charts – POLITICO

    Glob­al views on A.I. 2023

    Dig­i­tal News Report 2024 | Reuters Insti­tute for the Study of Jour­nal­ism

    Pub­lic atti­tudes towards the use of AI in jour­nal­ism    

    Why gen­er­a­tive AI scares artists but not writ­ers 

    Per­cep­tions and Real­i­ties of Text-to-Image Gen­er­a­tion 

    Eyes can tell: Assess­ment of implic­it atti­tudes toward AI art — PMC 

    Emerg­ing gen­er­a­tional fault lines in pub­lic opin­ion on Arti­fi­cial Intel­li­gence | Algo­Soc 

    Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!
    @bajmedia
    Найбольш чытанае
    Кожны чацвер мы дасылаем на электронную пошту магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы мерапрыемстваў (лекцыі, дыскусіі, прэзентацыі), а таксама самыя важныя навіны і тэндэнцыі ў свеце медыя.
    Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці