ШІ ў медыя і не толькі: ад журналісцкіх інструментаў да агенцкіх сістэм
У гутарцы з Андрусём Храпавіцкім, экспертам у галіне штучнага інтэлекту і вялікіх дадзеных кампаніі Results-CX, мы разгледзелі, як гэтыя тэхналогіі змяняюць журналістыку, якія функцыі ШІ выконвае сёння і ці можа калі-небудзь замяніць чалавека ў творчых прафесіях.

Эксперт у галіне штучнага інтэлекту і вялікіх дадзеных кампаніі Results-CX Андрусь Храпавіцкі. Фота: з уласнага архіва
«Ці магчыма стварыць штучныя думаючыя сістэмы? Пытанне філасофскае»
— Штучны інтэлект ужо даўно выйшаў за межы навуковай фантастыкі і стаў непазбежнай часткай медыясферы. Сёння ён не толькі дапамагае журналістам у пошуку інфармацыі і аўтаматызацыі публікацый, але і ўносіць новыя выклікі і магчымасці ў працэс стварэння кантэнту.
— Гісторыя ШІ даволі доўгая. Першасныя алгарытмы і наогул развагі і ідэі пра тое, што можна стварыць думаючыя машыны, можна прасачыць у ХІХ — пачатку ХХ стагоддзя. Пачатковыя канцэпты штучнага інтэлекту адбудоўваліся яшчэ ў 50‑я гады.
На Дармутскай канферэнцыі ў ЗША заснавальнік функцыянальнага праграмавання Джон Макарці ўпершыню ўжыў тэрмін «штучны інтэлект». Можна таксама згадаць Алана Цюрынга, чые працы ў 50‑х шмат хто лічыць фундаментальнымі на пачатковым этапе.
Спадар Цюрынг у свой час прыдумаў тэст, які дапамагае зразумець прасунутасць той ці іншай штучнай сістэмы. Аднак на сёння ШІ навучыўся яго адольваць, хоць насамрэч сама сістэма можа і не быць дастаткова моцнай.
Мо каму даводзілася чуць пра такі панятак як «ядзерная зіма»? У сферы найноўшых тэхналогій таксама былі часы пацяплення, узрастання інтарэсу да гэтай сферы, а пасля — перыяды заняпаду, так званыя «зімы ШІ».
Адбываліся падзеі, якія спрычыняліся да падвышэння цікавасці, а потым, калі ў лідараў індустрыі не хапала фінансаў, каб праводзіць даследаванні ў спецыфічнай галіне, інтарэс да кірунку падаў.
І вось зараз мы назіраем чарговы ўсплёск. Калі, напрыклад, з’явіўся чат GPT, даволі шмат людзей, якія раней не сутыкаліся са штучным інтэлектам, нарэшце звярнулі на яго ўвагу. Адпаведна шырока загаварылі пра яскравыя прыклады, дзе штучны інтэлект пачаў адыгрываць ужо карысную функцыю ў працы звычайнага чалавека. А так да гэтага з ім сутыкаліся ў больш спецыфічных сферах, для абывацеля гэта была, хутчэй, нейкая тэарэтычная абстракцыя.
Калі казаць пра мяне, то я пачаў працаваць з генератыўнымі мадэлямі, якія выкарыстоўваюцца ў чаце GPT і іншых падобных сервісах, за некалькі год да таго, як гэты выбух інтарэсу адбыўся.
— Што вас прывабіла ў ШІ?
— Праграмаваннем я займаюся са школы. Майму бацьку-настаўніку далі камп’ютарны клас, і я пачаў пісаць камп’ютарныя тэсты. Цягам жыцця праграмаванне было дзесьці паралельна з асноўнай маёй працай, але сем гадоў таму я цалкам пераключыўся на гэтую сферу.
Мяне здаўна цікавіла філасофія. Яна даследуе фундаментальныя пытанні пра прыроду чалавека і свядомасці. Ці магчыма стварыць штучныя думаючыя сістэмы — насамрэч філасофскае пытанне. І вось шматлікія аспекты, якія цікавілі мяне ў філасофіі, пераклікаліся з галіной ШІ і машыннага навучання. Паколькі я блізкі да сферы праграмавання, мне было прасцей заглыбіцца ў гэтую галіну, разабрацца ў ёй больш дэтальна.
Зараз я ўзначальваю аддзел распрацоўкі і даследаванняў (research and development) у нашай кампаніі, укараняю сістэмы штучнага інтэлекту ў яе прадукты, каб людзі хутчэй маглі знаходзіць адказы на пытанні ў сістэмах пошуку, альбо, як усё часцей гавораць у офісах, у «агенцкіх сістэмах». Такія сістэмы могуць аўтаномна працаваць над пэўнымі даследчымі ці вылічальнымі задачамі і даваць адказы. Дадзены кірунак у гэтым годзе проста ў топе па запатрабаванасці.
«Сярод новых інструментаў для медыя — сістэмы глыбокіх даследаванняў»
— Што за гады існавання ШІ змянілася? Якія новыя тэндэнцыі ў яго выкарыстанні з’явіліся ў медыя?
— Гэта даволі складанае пытанне, таму што тут сапраўды хапае розных падводных камянёў. Напрыклад, Ілан Маск вельмі часта заяўляе, што Х (былы Twitter) — гэта навінавы сайт нумар адзін ледзьве не ў кожнай краіне свету. То бок адносіць сацсетку да медыя ці не?
— Давайце пагаворым пра больш традыцыйныя медыя.
— Тут трэба звярнуць увагу, што штучны інтэлект ужо зараз актыўна ўжываецца ў якасці дапаможнага сродку, які можа палегчыць журналісту даследчую працу. Як вядома, медыйшчык, калі рыхтуе рэпартаж, сутыкаецца з патрэбай праводзіць аналіз даволі вялікіх пластоў інфармацыі.
Літаральна пару гадоў таму ў гэтай сферы пачалі з’яўляцца новыя інструменты — так званыя сістэмы глыбокіх даследаванняў. Чаму гэта цікава? Яны здольныя шукаць у інтэрнэце, а таксама ў некаторых базах інфармацыю, а пасля на аснове гэтага пошуку выдаваць экспертны аналіз на адну-дзве старонкі са спасылкамі. Такі выніковы аналітычны рэпорт можа дапамагчы журналісту больш эфектыўна даследаваць нейкую тэму.

Выява зробленая БАЖ пры дапамозе ChatGPT
Насамрэч падобны функцыянал зараз з’явіўся ў розных правайдараў вялікіх моўных мадэляў. Напрыклад, калі шукаеш у Google інфармацыю, то зверху бачыш сціслыя самары. За гэтым функцыяналам стаіць Gemini — вялікія моўныя мадэлі Google.
Ад нядаўняга часу падобнае з’явілася таксама ў чаце GPT. Некаторыя новыя мадэлі эксперты называюць думаючымі, то бок яны не даюць адказу адразу, а фактычна ствараюць такі мысленчы ланцужок. Такая мадэль быццам «думае», таму адказ у выніку можа быць больш якасным.
Падобыя мадэлі таксама трэніруюцца ўжываць пэўны інструментарый, напрыклад, пошук альбо напісанне кода для таго, каб даваць больш прасунуты адказ.
Чаму я зараз канцэнтруюся менавіта на гэтых аспектах? Бо гэта даволі новыя функцыі сістэм ШІ, даступных публічна, і для журналіста яны могуць быць досыць карыснымі. Якасць іх працы, натуральна, можа адрознівацца залежна ад таго, якую мову карыстальнік ужывае.
На англійскай вялікія моўныя мадэлі працуюць значна лепш. Але журналіст можа, напрыклад, напісаць запыт па-беларуску, тады ўжыць мадэль штучнага інтэлекту для перакладу і запусціць запыт на англійскай мове, каб прасунутая мадэль правяла «даследчую працу». І потым вынікі, ужываючы зноў жа штучны інтэлект, перакласці на беларускую мову. Можна таксама спрабаваць на мове арыгінала, але тут трэба разумець, што якасць можа быць крыху горшая.
— Як мне падаецца, чат GPT зараз нармальна працуе з беларускай мовай.
— Так, гэта мультымоўнасць вялікіх моўных мадэляў не стаіць на месцы. Мяркую, што ў будучым мы пабачым яшчэ большы прагрэс. Але з беларускай тут ёсць пэўныя праблемы праз тое, што ў нас паралельна дзейнічаюць розныя правапісы. Звычайна мадэль трэніруецца на Вікіпедыі і СМІ, а ў беларусаў існуе Вікіпедыя і з тарашкевіцай, і з наркамаўкай. А яшчэ актыўна выдаюць навіны медыя, якія ўжываюць розныя правапісы. Гэты лінгвістычны разнабой, хоць я сам зазвычай пішу менавіта на тарашкевіцы, не дапамагае, а, хутчэй, перашкаджае трансформерам разабрацца са складанасцямі нашай мовы.
«Журналіст ужо і так карыстаецца ШІ, часам таго не ведаючы»
— Ці можа ШІ стаць паўнавартасным аўтарам навінавых матэрыялаў?
— Штучны інтэлект на сёння даволі добра працуе для абагульнення пэўных тэкстаў і стварэння чагосьці сціслага на аснове таго, што было раней напісана. Дапусцім, ёсць нейкае рашэнне суда, сценаграма яго пасяджэння. Рэпарцёр можа даць штучнаму інтэлекту задачу на аснове дакументаў стварыць артыкул, якое рашэнне вынес суд.
Альбо медыйшчык недастаткова добра разбірацца ў пэўнай сферы. У такім выпадку можна папрасіць ШІ прачытаць, напрыклад, навуковую працу і абагульніць пра што яна, падкрэсліць дасягненні. Гэта дапаможа журналісту паскорыць сваю працу.
— Як штучны інтэлект змяняе падыход журналістаў да збору і праверкі інфармацыі?
— Мне падаецца, што ў розных індустрыях сістэмы ШІ будуць ужывацца ўсё больш і больш, асабліва калі праца звязаная з пошукам і аналізам інфармацыі. Трэба разумець, што журналіст, закідваючы запыт, напрыклад, у Google ці на іншыя буйныя рэсурсы, ужо і так карыстаецца ШІ, магчыма, сам таго не ведаючы.
Сёння рэпарцёры ў сваёй працы вельмі часта карыстаюцца разнастайнымі сацыяльнымі медыямі. Інфармацыя, якая паказваецца нам, як правіла, фільтруецца праз рэкамендацыйныя сістэмы. Гэтыя сістэмы — асобная галіна ў сферы штучнага інтэлекту.
Дарэчы, хачу звярнуць увагу на даволі цікавы і бясплатны прадукт ад кампаніі Google — NotebookLM. Гэтая сістэма дазваляе запампаваць дакументы, у тым ліку і ў PDF-версіі. Яна стварае не проста абагульненне на аснове дакументаў, а фактычна міні-падкаст па-англійску. Не ведаю, ці працуе на дадзены момант на іншых мовах. Даволі зручная штука, якую таксама могуць ужываць журналісты.
Яшчэ для стварэння інфаграфікі можна не звяртацца да пэўнага спецыяліста, а проста загрузіць Excel-файл ці нейкую табліцу ў ШІ. Ці наладзіць з дапамогай найноўшых тэхналогій генерацыю абагульненняў для сацыяльных сетак медыя. Для гэтага трэба стварыць невялікі скрыпт ці праграму, якая будзе глядзець на артыкул, рабіць яго самары і публікаваць у сацыяльных сетках.
Яшчэ адзін прыклад прывяду. Нават я сам пісаў мультыагенцкую сістэму, у якой адзін агент выконвае ролю журналіста. У яго задачу ўваходзіць напісаць драфт — артыкул-чарнавік. Потым агент-рэдактар або супервайзер глядзіць на артыкул і вылучае, што трэба перапрацаваць і ўдасканаліць. Пасля штучны рэдактар вяртае чарнавік штучнаму журналісту. На гэтай стадыі можа з’яўляцца трэці агент, які верыфікуе інфармацыю і перапісвае яе.
І потым працэс ідзе па такім цыкле: артыкул вяртаецца рэдактару, рэдактар верыфікуе, што добра, што выпраўлена. Пасля гэта адпраўляецца чалавеку. Чалавек — гэта ўжо фінальнае звяно, ён вырашае публікаваць ці не.
Галюцынацыі ШІ і базавае правіла журналістаў
— Якія этычныя выклікі ўзнікаюць пры выкарыстанні ШІ ў журналістыцы? Як пазбегнуць непрыемнасцяў пры яго выкарыстанні?
— Тут сапраўды даволі шмат агульных выклікаў, якія стаяць не толькі перад журналістамі. Мяркую, што многія чулі пра такі тэрмін у сферы ШІ як «галюцынацыі».

Выява зроблена БАЖ пры дапамозе ChatGPT
Зараз з гэтым становіцца крыху лепш, але моўная мадэль першапачаткова трэніруецца на велізарных пластах дадзеных з інтэрнэту — адусюль, адкуль кампаніі могуць дастаць гэтыя дадзеныя. Спачатку адбываецца працэс перадтрэніроўкі, то бок мадэль першапачаткова даследуе велізарны архіў у інтэрнэце, Вікіпедыі і г. д. Базава, калі адбываецца гэты працэс, мадэль вучыцца прадказваць наступнае слова ў сказе ці фразе альбо пропускі ў паслядоўнасці слоў у сказах. Гэты падыход ужываецца для перадтрэніроўкі (pretraining) трансформерных сістэм.
Тое, якое слова ШІ прадкажа, у вялікай ступені залежыць ад таго, дзе яно ўжывалася ў архіве дадзеных, што выкарыстоўваецца для трэніроўкі. І зусім неабавязкова, што генератыўная моўная мадэль патрапіць на слушную сцяжынку з гэтага вялікага архіва дадзеных, у выніку даючы зусім няправільны адказ.
Але, як паказала практыка, трэніроўка такіх вось генератыўных мадэляў дапамагае навучаць ШІ цэламу набору дадатковых навыкаў, напрыклад, абагульняць тэкст, адказваць на пытанні і гэтак далей.
Чаму чат GPT так выстраліў у свой час? Бо аўтары вынайшлі шэраг дадатковых методык, як палепшыць вынік. Напрыклад, важнай методыкай стала навучанне з падмацаваннем на аснове зваротнай сувязі чалавека. Карыстальнік, асабліва, калі гэта эксперт, адзначае: «Вось гэта добры адказ, вось гэта кепскі». І потым ужывае гэтыя дадзеныя, каб дадаткова натрэніраваць мадэль. А яшчэ можна стварыць штучную мадэль на аснове зваротнай сувязі людзей, якая будзе рабіць праверачную працу і дадаткова датрэніроўваць вялікую моўную мадэль, даваць больш слушныя адказы ўжо аўтаномна, без удзелу чалавека.
Такім і іншымі спосабамі галюцынацыі паступова спрабуюць мінімізаваць. Зараз многія сістэмы вучаць аўтаматычна ўключаць пошук, калі яны не ўпэўненыя ў сваім адказе. Але на дадзены момант я б сістэмам цалкам не давяраў.
Базавае правіла для журналіста — усё ж такі добра пераправяраць інфармацыю, у тым ліку ад ШІ.
«Фактычна кожны чалавек можа генераваць што заўгодна, і фэйкі ў тым ліку»
—Ці існуюць рызыкі маніпулявання грамадскай думкай праз генераваныя штучным інтэлектам навіны? Як іх мінімізаваць? Ці можа ШІ дапамагчы змагацца з фэйкавымі навінамі і якім чынам?
— Гэта велізарнае пытанне, бо сёння фактычна кожны чалавек можа генераваць усё, што заўгодна, і фэйкі ў тым ліку. Цяпер значна прасцей зрабіць любы голас — дастаткова некалькі сказаў, каб яго падрабіць. Можна імітаваць твары, прычым не толькі фота, але і відэа таксама.

Выява зробленая БАЖ пры дапамозе ChatGPT
Нескладана запусціць фабрыку троляў. І тут трэба прызнаць, што гэта сапраўды велізарная праблема, бо на рынку ШІ ёсць не толькі добрасумленныя кампаніі, але і велізарны пласт мадэляў з так званымі адкрытымі вагамі (параметрамі, якія былі атрыманыя ў выніку навучання). Код, на якім яны натрэніраваныя, можа быць закрытым, але на самі мадэлі можна ўсталяваць што заўгодна і ўжываць, як прыйдзе некаму ў галаву.
Аднак трэба памятаць, што ШІ можа не толькі ствараць фэйкі, але і спрыяць іх выяўленню. Вось якраз такія мадэлі-даследчыкі, якія натрэніраваныя на пошуку інфармацыі, больш прасунутыя агенцкія сістэмы могуць верыфікаваць крыніцы і мець ключавое значэнне ў выяўленні фэйкаў у далейшым. Я б сказаў, што праца фактчэкера становіцца ўсё больш і больш запатрабаванай.
Агулам, гэтыя пытанні трэба разглядаць на ўзроўні дзяржаў. Магчыма, павінна быць больш распрацаванае заканадаўства. Праца журналіста і вось такіх больш прасунутых адмысловых сістэм па выяўленні фэйкаў — гэта ў наш час вельмі важна. Калі б я быў донарам, я б інвеставаў менавіта ў такія праекты.
— Якія навыкі новых тэхналогій будуць хутка для журналістаў абавязковымі?
— Я б сказаў, што шырокі светагляд, гуманітарная адукацыя на дадзеным этапе вельмі не зашкодзіць. То бок зараз тэхнічныя аспекты спрашчаюцца. Ужываць сістэмы штучнага інтэлекту паступова будзе ўсё лягчэй і лягчэй. Але ахоп ведаў пра свет для журналіста будзе даволі істотным.
Важным будзе крытычнае мысленне — гэта тое, чаго не хапае глабальна.
У далейшым будзе набіраць моц пэўная персаналізацыя. У свеце, дзе шмат розных сістэм і штучных агентаў, ботаў, відэа, фота і г. д., аўтэнтычнае будзе лічыцца чымсьці вартасным і эксклюзіўным. Таму ўменне прамаўляць на камеру, гаварыць з людзьмі, задаваць пытанні, падтрымліваць дыялогі будуць вельмі важнымі. У Беларусі, дзе прасядае фінансаванне, а незалежныя медыя фактычна знаходзяцца на ўзроўні выжывання, хутчэй за ўсё на перадавую будуць выходзіць персаналіі, якія даюць аўтэнтыку.
Калі браць за прыклад ЗША, то апошнюю электаральную кампанію тут называюць падкаст-выбарамі. Таму што традыцыйныя медыя праселі, а падкастары фактычна перахапілі вялікую аўдыторыю. У Штатах вельмі вялікая колькасць людзей шмат часу праводзяць у машынах. У аўто чалавек звычайна нешта слухае і нярэдка аддае перавагу не музычным радыёстанцыям, а менавіта падкастам. Таму тут і выстраліў фармат доўгіх інтэрв’ю, некаторыя з якіх могуць цягнуцца тры гадзіны, нават і больш.
«Тэхнічная сфера аўтаматызуецца прасцей, у гуманітарнай будзе запатрабаваны персанальны кантакт»
— Ці можа штучны інтэлект выціснуць нейкія прафесіі?
— Зараз ідзе шмат спрэчак, ці можа тая архітэктура, што стаіць за вялікімі моўнымі мадэлямі, дасягнуць агульнага звышінтэлекту. То бок штучных сістэм, якія будуць перасягаць здольнасці людзей у розных галінах і фактычна цалкам заменяць чалавека. Існуе дастаткова шмат аргументаў, каб сцвярджаць, што мы зараз назіраем вельмі шмат хайпу, аднак сучасныя сістэмы ўсё ж не могуць працаваць аўтаномна.

Эксперт у галіне штучнага інтэлекту і вялікіх дадзеных кампаніі Results-CX Андрусь Храпавіцкі. Фота: з уласнага архіва
З іншага боку, мы бачым даволі шмат прарыўных аспектаў, якія будуць рабіць гэтыя сістэмы яшчэ больш прасунутымі. І гэтага ўжо дастаткова, каб замяняць пэўныя прафесіі ў той ці іншай ступені.
Напрыклад, пад вялікім пытаннем апынуліся самі праграмісты, бо сучасныя ШІ працуюць не горш за распрацоўшчыка-пачаткоўца, а часам могуць даць фору і спецыялісту са стажам. Няблага паддаецца аўтаматызацыі сфера бухгалтэрыі, а таксама сістэматызацыя дадзеных. Мануальную працу лёгка замяніць робатамі. Нездарма ў Кітаі і ЗША мы бачым так званыя цёмныя фабрыкі: тут не ўключаецца святло, бо на тэхналагічных лініях стаяць спрэс аўтаматы. Якасць прадукцыі кантралюецца супервайзерамі. Як прыклад такой аўтаматызавай вытворчасці можна прывесці заводы аўтавытворцаў, пачынаючы з «Тэслы».
Тэхнічная сфера аўтаматызуецца прасцей, а вось там, дзе патрэбная гуманітарная адукацыя, усё роўна будзе запатрабаваны персанальны кантакт. Па маіх адчуваннях, хутчэй за ўсё ва ўсіх сферах будзе запыт на людзей, у абавязкі якіх увойдзе кантроль за дзейнасцю ШІ.
— А калі вярнуцца да журналістаў?
— Як мне падаецца, журналісты знаходзяцца ў прывілеяванай кагорце тых, чыю працу не так проста аўтаматызаваць. Ніякі штучны інтэлект не зможа фізічна выехаць на месца падзеяў, узяць інтэрв’ю. Для фактчэкінгу таксама неабходная рука чалавека.
У часы, калі кожны лічыць сябе журналістам, калі ў сацсеткі вывальваюцца тоны фэйкаў і канспіралогіі, а падкастары з вялізарнымі аўдыторыяі нярэдка не задумваюцца пра тое, каб праверыць інфармацыю, мы не зможам абысціся без якаснай журналістыкі. Спадзяюся, гэтае разуменне паступова прыйдзе да многіх, і адбудзецца новая хваля цікавасці да медыя.
