• Актуальнае
  • Медыяправа
  • Карыснае
  • Кірункі і кампаніі
  • Агляды і маніторынгі
  • Рэкамендацыі па бяспецы калег

    Чат-боты са штучным інтэлектам пішуць навіны. Як гэта змяняе працу рэдакцый

    Былы кіраўнік аддзелаў даверу ў Google і ByteDance Арджун Нараян даў інтэрв’ю Gizmodo, у якім расказаў пра складанасць цяперашняга гістарычнага моманту, а таксама пра тое, як навінавыя агенцтвы і рэдакцыі павінны падыходзіць да кантэнту ШІ, каб ён мог заваяваць давер чытачоў, і чаго чакаць ад ШІ ў блізкай будучыні, піша «Наша Ніва».

    Сёння кампаніі, рэдакцыі і палітыкі паспешліва спрабуюць распрацаваць стандарты, каб захаваць давер у свеце, дзе інфармацыя, створаная ШІ, будзе ўсё часцей з’яўляцца ў інтэрнэце. Многія стваральнікі кантэнту ўжо выкарыстоўваюць чат-ботаў для выпускаў навін, некаторыя з якіх ўтрымліваюць патэнцыйна небяспечную хлусню.

    Раптоўныя праблемы, з якімі сёння сутыкаюцца генератары навін, ёсць вынікам паступовага нарошчвання алгарытмаў рэкамендацый і іншых прадуктаў ШІ, якія Арджун Нараян дапамагаў кантраляваць больш за дваццаць гадоў — спачатку ў ByteDance і Google, а сёння — у Smart­News, прыкладанні для пошуку навін, даступнага ў больш чым 150 краінах.

    Рэдакцыі павінны распрацаваць стандарты

    Сёння складана вызначыць, якія гісторыі цалкам напісаныя ШІ, а якія не. Гэтае адрозненне сціраецца. Аднак у тым, што ШІ стварае артыкулы, няма нічога дрэннага, як лічыць Арджун Нараян. Праўда, на яго думку, карыстальнік павінен ведаць, што гэты кантэнт быў напісаны з дапамогай чат-бота. Гэта можна пазначаць у подпісе або ў самой інфармацыі, што кантэнт быў часткова або цалкам згенераваны ШІ.

    У рэдакцыях на гэты конт яшчэ не распрацавалі ніякіх стандартаў.

    Нараян таксама адзначае, што рэдакцыям патрэбныя каманды фактчэкінгу, якія будуць карэктаваць усё, што выходзіць з сістэмы штучнага інтэлекту, бо ШІ часта дапускае фактычныя недакладнасці ці прыдумляе тое, чаго няма. Па словах Нараяна, логіка прыняцця рашэнняў ШІ па-ранейшаму застаецца «чорнай скрыняй». Незразумела, калі ён напіша чарговы фэйк або выдасць дэзынфармацыю.

    Былы кіраўнік аддзела даверу ў Google таксама звяртае ўвагу, што калі чалавек перапрацоўвае кантэнт, створаны ШІ, то ён усё адно павінен лічыцца аўтарам.

    «Думайце пра гэта як пра канвеер. Ёсць зборачная лінія Toy­ota, дзе робаты збіраюць аўтамабілі. Калі канчатковы прадукт мае няспраўную падушку бяспекі або няспраўнае рулявое кола, Toy­ota па-ранейшаму бярэ на сябе адказнасць за гэта, незалежна ад таго, што гэтую падушку бяспекі вырабіў робат. Калі справа даходзіць да канчатковага выніку, адказнасць ляжыць на навінавым выданні».

    Людзі патрэбныя і будуць патрэбныя

    Ёсць верагоднасць, што тэхналагічныя кампаніі, якія хутка звольнілі людзей праз імклівае развіццё штучнага інтэлекту, паспяшаліся, выказвае меркаванне Арджун Нараян. Асабліва ў сферах HR, даверу і бяспекі.

    Што датычыць медыя, па яго словах, тут яшчэ доўгі час будзе патрэбная праца людзей, якія разумеюць кантэкст. Інфармацыю трэба правяраць на дакладнасць, палітычны ўхіл, на адпаведнасць рэдакцыйным стандартам і каштоўнасцям. Гэта можа рабіць толькі чалавек.

    Выклік для палітыкаў і грамадзянскай супольнасці

    Арджун Нараян звяртае ўвагу, што грамадства цяпер не падрыхтаванае да пераменаў, якія адбываюцца. Шмат людзей страцілі працу, і яшчэ многія страцяць, аднак органы, якія рэгулююць гэтыя працэсы, не былі гатовыя да такіх хуткіх скарачэнняў і не ведаюць, чым заняць людзей, якія засталіся без працы.

    На думку Нараяна, грамадзянскай супольнасці таксама варта задумацца над гэтымі пытаннямі. Яна часта здольная адрэагаваць нават хутчэй, чым палітыкі.

    «Я настроены аптымістычна, але дазвольце мне сказаць вам вось што. У мяне ёсць сямігадовая дачка, і я часта пытаюся ў сябе, якую працу яна будзе выконваць. Праз 20 гадоў працоўныя месцы, якімі мы іх ведаем сёння, карэнным чынам зменяцца. Мы заходзім на невядомую тэрыторыю»,

    — кажа былы кіраўнік аддзела даверу ў Google.

    Яшчэ адна важная тэма для палітыкаў — прадумаць, у якіх сектарах ШІ варта выкарыстоўваць, а якія сферы павінны застацца для яго недасягальныя.

    Так, напрыклад, калісьці было прынятае рашэнне не кланаваць чалавечыя органы — бо гэта можа выклікаць масу этычных пытанняў. Аднак ШІ можна было б прыстасаваць да таго, каб займацца даследаваннем розных ужо доўгі час невылечных хвароб, такіх як хваробы Паркінсана і Альцгеймера, — і дапамагаць чалавечай думцы прасунуцца ў гэтым кірунку.

    Дзе ў гэтых пытаннях трэба праводзіць межы — гэта, на думку Нараяна, таксама пытанне для ўрадаў.

    Чытайце яшчэ:

    «Атрымаліся не толькі нататкі пра турэмнае жыццё». Алег Груздзіловіч — пра сваю кнігу

    Журналістку і пісьменніцу Яну Цэглу асудзілі на два гады «хатняй хіміі»

    Кар’ерны прапагандыст не здолеў аспрэчыць персанальныя санкцыі, а ў дадатак яшчэ заплаціць судовыя выдаткі

    Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!
    @bajmedia
    Найбольш чытанае
    Кожны чацвер мы дасылаем на электронную пошту магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы мерапрыемстваў (лекцыі, дыскусіі, прэзентацыі), а таксама самыя важныя навіны і тэндэнцыі ў свеце медыя.
    Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці