Як выявы, створаныя штучным інтэлектам, змяняюць фотажурналістыку і ўсё нашае жыццё
Медыі выкарыстоўваюць штучны інтэлект не толькі для працы з тэкстамі, але і для стварэння ілюстрацый. Ці пагражае гэта класічнай фотажурналістыцы, наколькі этычна выкарыстоўваць гэтыя выявы ў журналісцкай працы і каму належаць правы на выявы, створаныя з дапамогай штучнага інтэлекту? Давайце разбірацца.

Эксперымент, як ChatGPT можа рабіць выявы, быццам бы гэта фота з вуліц Мінска
Штучная гісторыя ў выявах штучнага інтэлекту
У 2023 годзе фатограф Майкл Крыстафер Браўн зладзіў праект фотаілюстрацый «90 міль». На платформе, распрацаванай ім у супрацы з куратарам, заяўлена, што гэта пост-фатаграфічны эксперымент у сферы ілюстратыўнага рэпартажу, створанага пры дапамозе штучнага інтэлекту. Гэты праект даследуе гістарычныя падзеі і рэаліі кубінскага жыцця, з прычыны якіх тутэйшыя жыхары вырашаюць пераплываць 90 міль праз акіян, які падзяляе Гавану і Флорыду.
Праект выклікаў вялікія дыскусіі наконт этычнасці такога кшталту рэпартажаў. Але аўтар падкрэслівае, што ён ад пачатку шчыра казаў, якімі метадамі створаны ягоны праект, што ён нікога не падманвае. У інтэрв’ю для часопіса Blind Magazine ён заявіў, што «супольнасці дакументалістаў і фотажурналістаў было б добра ўбачыць канкрэтны прыклад і ведаць, што гэта ўжо рэальнасць, а не проста працягваць спрачацца паміж сабой».
А ў адказ на шматлікія крытычныя заўвагі ён пісаў: «Людзі могуць кідацца на мяне і завальваць крытыкай без перапынку. Я гэта вітаю, бо гэта прыцягвае ўвагу да ШІ і магчымасцяў сторытэлінгу. Ствараць выявы нескладана, і яны хутка становяцца ўсё больш фотарэалістычнымі. Да з’яўлення «90 міль» мы збольшага толькі чыталі пра патэнцыйныя пагрозы з боку штучнага інтэлекту і наколькі небяспечным ён мог бы быць».

Выява фатографа Майкла Крыстафера Браўна з праекта «90 міль».
Яшчэ адзін падобны праект быў створаны бельгійскім фатографам Карлам дэ Кайзерам. Аўтар некалькі разоў наведваў Расію ў 1980‑х і 2000‑х як фатограф-дакументаліст, а пасля поўнамаштабнага ўварвання Расіі ва Украіну ў 2022 годзе ён з дапамогай штучнага інтэлекту стварыў серыю выяваў «Мара Пуціна».
На выявах — кадры нібыта з расійскага жыцця. У іх, як і ў эксперыменце «90 міль», мясцовыя жыхары выглядаюць максімальна стэрэатыпна, і абодва праекты спрыяюць вельмі павярхоўнаму ўспрыняццю краін, пра якія ў іх ідзе гаворка. Але і «90 міль», і «Мара Пуціна» — гэта не дакументалістыка, а нешта накшталт дыснэеўскіх мульцікаў. Калі перакладаць на літаратурную мову, гэта не дзённікавыя запісы, а мастацкая літаратура. Вось толькі, нягледзячы на тое, што аўтары ад пачатку папярэджваюць пра штучнасць вобразаў, усё адно застаецца адчуванне, што яны спрабуюць выдаць фантазію за рэальнасць.
Зрэшты, Кайзер кажа пра штучнасць сваіх выяваў, быццам намякаючы на тое, што на самой справе яны добра адлюстроўваюць рэальнасць.
«Вядома, усё застаецца штучным, але ў мяне атрымалася вельмі наблізіцца да амаль рэалістычных вобразаў і, што больш важна, прадставіць мой спосаб кампазіцыі і каментавання [з выкарыстаннем] іроніі, гумару, сумневаў, здзіўлення, сюррэалізму … Многія людзі кажуць, што яны ясна бачаць мой стыль у гэтых малюнках, што і было ідэяй», — кажа аўтар.
Але пра рэалістычнасць якіх вобразаў вядзецца, калі яны самі ёсць вынікам фантазіі?

Згенераваны штучным інтэлектам здымак з серыі «Мара Пуціна». Аўтар: Карл дэ Кейзер.
Галоўнае этычнае пытанне адносна гэтых двух праектаў гучыць так: ці з’яўляецца дэзынфармацыяй выява, якая імітуе дакументальныя здымкі, хоць аўтар і папярэджвае, што гэта праца ШІ? Праца Кайзера дадаткова выклікае пытанні адносна таго, як аўтар рэпрэзентуе наступствы вайны і як прытрымліваецца ідэі, што гэта «вайна Пуціна», але гэта тэма для асобнага тэксту. Тут жа гаворка ідзе пра штучны інтэлект. І адзінага адказу, натуральна, няма, бо адны бачаць у такіх праектах пагрозу і злоўжыванне, а іншыя ўспрымаюць іх як этычнае папярэджанне пра магчымыя пагрозы.
Ці пагражае штучны інтэлект самім фотажурналістам і фотажурналісткам?
Медыі часам выкарыстоўваюць выявы, створаныя з дапамогай ШІ, у сваіх публікацыях. І калі праекты, апісаныя вышэй, крытыкаваліся найбольш праз клопат пра аўдыторыю, дык існуе і іншы ракурс. Ці не заменяць нейрасеткі жывых творцаў у фотажурналістыцы?
Мы спыталі ў вядомага беларускага фатографа (ён папрасіў не называць яго імя, дык назавем яго К.), што ён пра гэта думае.
«Як фотажурналіст — не, пагрозы я не адчуваю. ШI нават тэарэтычна не ў стане замяніць рэпартаж з месца падзеі», — сцвярджае фатограф. Ён адзначае, што яшчэ не сустракаў медыі, якія б з дапамогай ШI спрабавалі ілюстраваць навіны ці неяк інакш падмяняць менавіта фотажурналістаў.
«Год-два таму, калі ШI-генерацыя толькі з’явілася і ёй усе кінуліся карыстацца, мяне крыху раздражняла яе празмерная колькасць, чыста на эстэтычным узроўні. Але ж цяпер, здаецца, нагуляліся — я зараз наўмысна паглядзеў старонкі найбуйнейшых беларускіх медыя і ўвогуле не пабачыў там ШI-генерацыі. У сусветных медыя і раней яе амаль не было».
А ці могуць самі фотажурналісты ўплываць на тое, як шмат медыі выкарыстоўваюць выявы, створаныя з дапамогай штучнага інтэлекту? К. не ўпэўнены, што ёсць на што, уласна, ўплываць. На яго думку, у медыях няма зашмат ці ўвогуле шмат такіх выяваў.
«І нічога неэтычнага ва ўжыванні згенераванага відарыса ў якасці ілюстрацыі замест стокавага фотаздымка я не бачу. Праблема ШI для журналістыкі — у генерацыі фэйкавых малюнкаў/відэа, якія выдаюцца за рэальныя. Але ж ніхто іх свядома не выкарыстоўвае, як мінімум з медыяў, што прытрымліваюцца самых базавых мінімумаў журналісцкай этыкі. Чагосьці новага прыдумляць не трэба».
К. мяркуе, што ШІ — і не дабро, і не зло для фотажурналістыкі. Выключэнне — гэта генерацыя фэйкавых фота і відэа, якія, паводле яго слоў, ёсць адназначным злом і падрываюць давер да візуальных доказаў, бо спрыяюць выкарыстанню аргумента «гэта ўсё згенеравана».
А вось фатографам-стокерам і крэатыўным фатографам нейрасеткі, на яго думку, сапраўды шкодзяць. Стокеры застаюцца без працы, бо іх здымкі лёгка замяніць выявамі, створанымі з дапамогай ШІ, а на крэатыўных фатографах ШІ паразітуе і крадзе працу ды магчымасць зарабляць. «Але ж больш-менш дакументальныя жанры фатаграфіі, тыя, дзе важны не толькі вынік, карцінка (і без розніцы, ці яна адфоташопленая, ці згенераваная), але ж і тое, што гэта здымак сапраўднага чалавека, падзеі ці рэчы, ШI не закранае. Альбо закранае толькі ўскосна — праз падзенне даверу і ўспрыняцце чагосьці незвычайнага, як «напэўна, згенеравана», — дадае К.
Фотадакументаліст Ёхан Брукс прытрымліваецца іншай пазіцыі і перакананы, што выкарыстанне выяваў, сгенераваных з дапамогай штучнага інтэлекту, пагражае індустрыі фотарэпартажу.

Злева: мужчына, які пратэстуе супраць Алімпійскіх і Паралімпійскіх гульняў у Токіо-2020, сутыкнуўся з паліцыяй. 8 жніўня 2021 года. Справа: згенераваная штучным інтэлектам версія фота злева. Ёхан Брукс выкарыстоўвае гэты здымак, каб паказаць розніцу паміж сапраўднымі і фальшывымі выявамі ў навінах. Выява: з сайта japantimes.co.jp
«ШІ-выявы сталі сапраўднай праблемай для навінавых медыяў, якія выкарыстоўваюць выявы з адкрытых крыніц», — піша Ёхан Брукс у сваім артыкуле «Дзіўней за выдумку: як штучны інтэлект пагражае фотажурналістыцы». У гэтым тэксце ён цытуе журналістку Марыко Мікамі, яна занепакоеная ШІ-выявамі прыродных катаклізмаў, якія распаўсюджваюцца ў сацыяльных сетках: «Падобна, узрастае рызыка таго, што выявы, створаныя пры дапамозе штучнага інтэлекту, будуць замінаць асвятленню ў СМІ і правядзенню ратавальных аперацый і будуць уплываць на жыцці людзей».
Хлусня, хлусня, яшчэ больш хлусні
Няправільна было ігнараваць той факт, што шмат візуальнага кантэнту ствараецца з дапамогай штучнага інтэлекту менавіта для таго, каб распаўсюджваць дэзынфармацыю. І калі прафесійныя медыі больш ці менш паспяхова спраўляюцца з гэтай праблемай і адсякаюць фэйкі, дык у сацыяльных сетках для іх літаральна неабмежаваная прастора. Выявы неіснуючых украінскіх дзяцей, якія страцілі неіснуючы дом і неіснуючых бацькоў, выявы выдуманых параненых кацянят, згенераваныя старыя, якіх кінулі іх выдуманыя дзеці, выдуманыя інтэр’еры, будынкі, лясы, машыны, мітынгі, злачынствы і дабрачынныя дзеянні.
Пад выглядам сапраўдных фотаздымкаў выявы, згенераваныя ШІ, выкарыстоўваў у сваёй агітацыі Дональд Трамп, карыстаюцца імі і махляры для вымантачвання грошай, і несумленныя маркетолагі для раскручвання брэндаў і старонак.
Яскравы прыклад — згенераваныя з дапамогай штучнага інтэлекту выявы нібыта наступстваў ураганаў у ЗША. Яны выклікалі шмат эмацыйных рэакцый у сацсетках. З дапамогай гэтых выяваў збіралі грошы нібыта на дапамогу пацярпелым людзям і жывёлам, набіралі падпісчыкаў для сваіх профіляў, зараблялі на праглядах, публікуючы выявы ў TikTok, выкарыстоўвалі для агітацыі за Трампа, бо выявы быццам бы былі доказам кепскай працы адміністрацыі Байдэна.

Гэтая выява, на якой Трамп быццам бы зняўся з цёмнаскурымі выбарцамі, першапачаткова з’явілася ў сатырычным акаўнце. Аднак пасля шырока распаўсюдзілася ў сацыяльных сетках, дзе людзі прымалі ілюстрацыю за праўдзівы здымак. Крыніца: X / Trump_History45
Такім жа чынам рэгулярна выкарыстоўваюць і выявы нібыта наступстваў вайны Расіі супраць Украіны. Праўда, палітычныя інтарэсы тых, хто гэта робіць, бываюць супрацьлеглымі. Пад адной і той жа выявай прыдуманага загінулага дзіцяці ў розных крыніцах могуць быць кардынальна розныя заклікі — ад просьбаў данаціць вайсковым да патрабавання, каб Зяленскі сышоў з паста прэзідэнта. Такога кшталту гісторыі не ўплываюць на прафесійныя медыі наўпрост, але аказваюць уплыў ускосна, пра што ўжо казаў беларускі фотажурналіст К.
А з каго спытаць?
Выкарыстанне выяваў, створаных з дапамогай штучнага інтэлекту, выклікае шэраг прававых пытанняў. Хто аўтар гэтых выяваў, каму яны належаць і хто за іх адказвае?
Кароткі адказ — усё складана. Але паспрабуем унесці трошку яснасці.
Па-першае, сама мадэль не валодае правам на выявы, якія будуць згенераваныя з яе дапамогай. Каб нечым валодаць, трэба быць чалавекам. Па-другое, трэба глядзець карыстальніцкае пагаденне кожнай канкрэтнай мадэлі. Там можа быць прапісана, што аўтарства належыць чалавеку, які ўвёў промт, альбо ўвогуле нікому.
Па-трэцяе, з пытаннем адказнасці таксама ўсё няпроста — з аднаго боку, адказнасць за выкарыстанне выявы ляжыць на тым чалавеку, які задаў промт і потым распаўсюджвае гэтую выяву. А з іншага боку, розныя ШІ маюць розныя этычныя абмежаванні (напрыклад, не выдаюць небяспечны кантэнт пра зброю), тобок прастора для адказнасці з боку распрацоўшчыкаў таксама ёсць.
Часта паўстае пытанне не правоў на саму згенераваную выяву, а парушэння аўтарскіх правоў пры генерацыі. Напрыклад, у 2023 годзе мастачкі Сара Андэрсэн, Келі Макернан і Карла Оціс падалі ў ЗША калектыўны пазоў пра парушэнне аўтарскіх правоў супраць Stability AI, Midjourney i DevianArt. Заяўляльніцы сцвярджалі, што пералічаныя кампаніі ўзялі з адкрытых крыніц пяць мільярдаў выяваў творчасці рэальных мастакоў і мастачак і навучалі на іх інструменты штучнага інтэлекту, чым парушылі правы мільёнаў творцаў.
Stability AI таксама атрымлівала прэтэнзіі ад фотаагенцыі Getty image, бо выкарыстоўвала яе выявы для навучання нейрасеткі і не набывала пры гэтым ліцэнзію.
