Чаму ўрады баняць нейрасетку DeepSeek і што пра нас ведае ChatGPT?
Некалькі краін забаранілі выкарыстоўваць нейрасетку DeepSeek на дзяржаўных прыладах, а ў Паўночнай Карэі яе прыбралі з усіх крамаў прылажэнняў. І ўсё праз клопат праз бяспеку як саміх карыстальніц і карыстальнікаў, так і ўсіх навакольных. А наколькі (не)бяспечны ChatGPT, якім так часта карыстаюцца беларускія журналісты і журналісткі?

Фота: pexels.com
І ўсё-такі, што там з DeepSeek?
Перш чым перайсці да ChatGPT, давайце ўсё ж дагаворым пра DeepSeek і прычыны ягонай забароны. Гэта важна, каб зразумець, пра якія патэнцыйныя рызыкі ўвогуле ідзе гаворка, калі мы кажам пра нейронныя сеткі такога тыпу.
Аўстралія, Італія, ЗША і некаторыя іншыя страны забаранілі карыстацца DeepSeek на дзяржаўных прыладах. Забаніў нейрасетку на сваіх прыладах і універсітэт Брытанскай Калумбіі ў Канадзе.
«Нягледзячы на папулярнасць, прыкладанні DeepSeek выклікаюць занепакоенасць, што да канфідэнцыяльнасці і бяспекі. Асабліва гэта тычыцца аб’ёмнага збору і абмену дадзенымі, у тым ліку асабістай інфармацыяй, і права на рэгістрацыю націсканняў клавіш», — піша UBC на сваім сайце.
Паводле Цэнтра стратэгічных і міжнародных даследаванняў, DeepSeek зроблены такім чынам, што карыстальніцы і карыстальнікі могуць не толькі змяняць ягоны функцыянал, але і механізмы бяспекі. А гэта ў сваю чаргу павялічвае рызыкі пры карыстанні.
Нядаўняе даследаванне амерыканская кампаніі Cisco, якая распрацоўвае і прадае сеткавае абсталяванне, паказала, што DeepSeek не змог заблакаваць ніводнага шкоднага промту у сваіх праверках бяспекі. У тым ліку ён не палічыў вартымі блакіроўкі і промты, звязаныя з кіберзлачыннасцю і дэзінфармацыяй. І, як паказваюць далейшыя даследаванні, кіберзлачынцы могуць выкарыстоўваць DeepSeek у 11 разоў часцей, чым іншыя мадэлі штучнага інтэлекту.
Іншыя мадэлі таксама маюць свае слабасці, і вядома, што зламыснікі выкарыстоўваюць іх, напрыклад, для ўдасканалення фішынгавых лістоў, робячы іх больш пераканаўчымі, а таксама дапамагаюць дапрацаваць шкодныя коды. Але DeepSeek дазваляе рабіць тое, што іншыя даволі паспяхова блакуюць. З ягонай дапамогай можна распрацаваць з нуля шкодны код ці праграму, не маючы нават тэхнічных ведаў. Таксама можна атрымаць інструкцыю, як падрыхтаваць кактэйль Молатава ці зрабіць амфетамін.
ChatGPT фільтруе лепш
У адрозненні ад DeepSeek, які ў прынцыпе адмаўляецця блакаваць патэнцыйна шкодныя і небяспечныя промты, ChatGPT робіць гэта ў 86%, а Gemini Google — у 64% выпадкаў.

Выява зроблена БАЖ пры дапамозе ChatGPT
Але нягледзячы на гэта, шэраг краін увялі розныя абмежаванні на выкарыстанне ChatGPT. У спіс краін уваходзяць Расія, Кітай, Паўночная Карэя, Куба, Іран і іншыя. Імаверна, гэта звязана не столькі са шчырым клопатам пра бяспеку карыстальніц і карыстальнікаў, колькі з антызаходняй палітыкай, якую з рознай ступенню паслядоўнасці праводзяць гэтыя краіны.
Але вернемся да фільтрацыі промтаў. Дзеля эксперыменту я вырашыла праверыць, што будзе рабіць ChatGPT з запытам пра тое, як зрабіць кактэйль Молатава. Парадавала, што ШІ фільтруе бяспеку такога пытання: ён не стаў выдаваць інструкцыю і растлумачыў, чаму адмовіў. А сам запыт быў выдалены праз некалькі секунд. Тады я спытала ў яго ж, промты якога тыпу ён блакуе. Ступень абстракцый у гэтым спісе аказалася дужа разнастайнай:
- Шкодны ці небяспечны кантэнт — запыты, у якіх просяць інструкцыі ці рэкамендацыі па незаконнай дзейнасці, самапашкоджаннях альбо прычыненні шкоды іншым. Напрыклад, запыты пра зрою, выбуховыя і іншыя небяспечныя рэчывы
- Гвалт ці жорсткае абыходжанне — запыты на прапаганду ці апісанне гвалту, жорсткага абыходжання ці іншых шкодных паводзінаў, у тым ліку распальвання нянавісці, пагрозаў ці пераследу.
- Дэзынфармацыя і падман — запыты на стварэнне непраўдзівай інфармацыі ці кантэнту. Гаворка можа ісці пра махлярства, дэзынфармацыю і тэорыі змовы.
- Недапушчальны кантэнт — запыты, адказам на якія мусіць быць кантэнт для дарослых, нецэнзурная лексіка ці графічныя апісанні, якія не падыходзяць для шырокай аўдыторыі.
- Парушэнне канфідэнцыйнасці — запыты пра асабістыя звесткі, узлом альбо нешта, што парушыць чыюсьці прыватнасць, у тым ліку запыт на перадачу асабістай інфармацыі без згоды.
- Неэтычнае выкарыстанне тэхналогій — промты, якія заахвочваюць да неэтычных паводзінаў альбо злоўжывання тэхналогіямі, у тым ліку сачэнне, маніпуляцыі ці выкарыстанне сістэм штучнага інтэлекту ў шкодных мэтах.
Найбольш пытанняў выклікае апошні пункт, а менавіта той факт, што няясна, якімі менавіта этычнымі правіламі карыстаецца сістэма, каб вызначыць, што ёсць этычным, а што — не. Я зноў жа дзеля эксперымента спыталася ў ChatGPT, дзе амерыканка са штату, у якім забаронены аборты, можа атрымаць гэтую форму медычнай дапамогі. Адказ быў інфарматыўным — я атрымала тлумачэнне, чаму ў гэтым штаце не атрымаецца зрабіць аборт, і таксама сістэма дала мне кантакт, куды звяртацца па дапамогу, дзе мяне могуць пракансультаваць.
Тады я спыталася, як зрабіць аборт у хатніх умовах, і ChatGPT падрабязна патлумачыў, чаму гэта кепская ідэя, і прапанаваў некалькі варыянтаў, як можна перарваць цяжарнасць бяспечна з дапамогай медыкаў.
Такім чынам, падобна, што ён абапіраецца прынамсі ў гэтым пытанні на сучасныя медычныя веды і не лічыць неэтычнымі падказкі, як і дзе зрабіць аборт. Але цалкам ягоны этычны кодэкс застаецца незразумелым.
Якія звесткі збірае ChatGPT і што з імі робіць?
Што тычыцца ўласнай бяспекі, дык журналісцкай супольнасці асабліва важна разумець, якія звесткі ChatGPT збірае, і што з імі адбываецца далей.
Асноўны аб’ём звестак мы даем яму ўласнымі рукамі, бо ChatGPT збірае ўсю інфармацыю з нашых запытаў. У тым ліку ён бярэ інфармацыю з файлаў, якія мы запампоўваем. Таму ёсць сэнс перачытаць сваё рэзюмэ перад тым, як прасіць нейрасетку яго дапрацаваць.
Тое ж тычыцца запытаў на аналіз і падсумаванне дыялогу з нейкага чату. Варта звярнуць увагу, у якім фармаце мы аддаем чату гэтыя дыялогі, ці ёсць там нашыя кантактныя звесткі ці звесткі іншых людзей.

Выява зроблена БАЖ пры дапамозе ChatGPT
Таксама ён захоўвае адрас электроннай пошты, з якой вы стварылі акаўнт. І пры кожным карыстанні ён збірае ваш IP-адрас, інфармацыю аб прыладзе, у тым ліку ўнікальныя ідэнтыфікатары, інфармацыю, сабраную файламі cookie, і вашае месцазнаходжанне.
Заяўляецца, што сабраную інфармацыю выкарыстоўваюць для далейшай трэніроўкі мадэлі. І гэтую функцыю можна адключыць у наладах, адключыўшы там функцыю «Паляпшаць мадэль для ўсіх». Але майце на ўвазе, што гэта не дазволіць вам захоўваць гісторыю чатаў. Кожны новы дыялог з вамі ў ChatGPT будзе як першы.
Таксама ёсць магчымасць весці часовы чат, які выдаліцца аўтаматычна праз 30 дзён, і звесткі з якога не будуць збірацца.
Вось тут можна зрабіць «Запыт бяспекі» (Privacy Request). Так вы можаце запытаць копію сваіх звестак, папрасіць прыбраць асабістыя даныя з набораў трэніровак. І нават выдаліць свой уліковы запіс (пры гэтым выдаляюцца ўсе звязаныя даныя).
Як яшчэ абараніць сябе і свае крыніцы? Ёсць некалькі універсальных парад: выкарыстоўвайце VPN і проксі і ўважліва стаўцеся да таго, якую менавіта інфармацыю вы даеце ChatGPT. І другім падобным мадэлям, вядома.
