ChatGPT вас аналізуе і можа раскрываць асабовыя звесткі. Ці бяспечна яму пісаць?
Мільёны людзей карыстаюцца чат-ботамі на штучным інтэлекце. І шмат хто расказвае ім пра сябе. Лепш не расказваць шмат: стваральнікі чат-ботаў могуць рабіць са звесткамі амаль што заўгодна, а заканадаўства ў гэтай галіне пакуль не ідэальнае. Панікаваць не варта, але трэба памятаць пра рызыкі.
Паводле даследавання, якое правялі ў Злучаных Штатах у студзені 2025 года, каля 52 % амерыканцаў карыстаюцца чат-ботамі са штучным інтэлектам (дакладней, вялікімі лінгвістычнымі мадэлямі – LLM) кшталту «ChatGPT», «Gemini», «Claude» і «Copilot». Свежай сусветнай статыстыкі няма, але несумнеўна, што гэткімі чат-ботамі карыстаюцца сотні мільёнаў чалавек. А можа, і мільярд-другі.
З ліку апытаных дзве траціны карыстаюцца штучным інтэлектам для пошуку інфармацыі, палова – у асноўным для асабістага навучання, каля паловы – для мазгавых штурмаў. 40 % карыстальнікаў мяркуюць, што штучны інтэлект паводзіць сябе так, нібы разумее іх, а 22 % адчуваюць з боку нейрасетак эмпатыю.
Марк Цукербэрг – кіраўнік кампаніі «Meta», якая мае не толькі Facebook, Instagram і WhatsApp, але і падраздзяленне распрацоўвання штучнага інтэлекту – хоча, каб штучны інтэлект станавіўся для людзей і бізнес-агентам, і доктарам, і сябрам. Facebook і так ведае пра карыстальніка больш за блізкіх родзічаў. Не выглядае фантастыкай, што даведаецца яшчэ больш дзякуючы «эмпатычнаму» штучнаму інтэлекту.
Толькі 21 % апытаных у згаданым даследаванні хвалюецца за сваю прыватнасць у размовах са штучным інтэлектам.
А хвалявацца было б варта
Напрыклад, палітыка прыватнасці самага папулярнага чат-бота са штучным інтэлектам «ChatGPT» кажа: мы збіраем звесткі акаўнту, кантэнт ад карыстальніка (не толькі карцінкі і файлы, але і запыты ў чат) ды іншыя звесткі ад вас, логі і звесткі пра карыстанне, прыблізную лакацыю, інфармацыю пра вас ад партнёраў ды іншых крыніцаў…
Зветскі карыстальніка «ChatGPT» могуць быць раскрытыя бізнес-партнёрам, калі гэта будзе дапамагаць у аперацыйных патрэбах, у некаторых выпадках (у тым ліку каб «адстойваць нашыя правы або маёмасць») дзяржаўным органам, галіновым партнёрам ці іншым трэцім асобам «згодна з законам».
Нават у раздзеле пра абарону звестак у «ChatGPT» напісана:
«Ніякая перадача звестак праз інтэрнэт або электронную пошту ніколі не ёсць цалкам бяспечнай або беспамылковай. Таму вам варта з асаблівай увагай вырашаць, якую інфармацыю падаяце сэрвісам».
Сапраўды, распрацоўнікі робяць памылкі.
Ілан Маск наўрад ці хацеў, каб ягоныя размовы з ягоным штучным інтэлектам «Grok» сталіся вядомыя ўсяму свету. Тым не менш 20 жніўня высветлілася, што любы можа нагугліць размову, якой карыстальнік «Grok» хоць раз дзяліўся з кімсьці па спасылцы. Пошукавікі праіндэксавалі больш за 370 тысяч размоваў з гэтаю праграмаю: хтосьці генераваў карцінкі тэрарыстычнай атакі ў Кашміры, хтосьці дзяліўся з чат-ботам (і ў выніку з усім інтэрнэтам) асабовымі звесткамі, хтосьці – іншымі дэталямі ў пытаннях пра медыцыну і псіхалогію.
Праз такую тэхнічную памылку ў канцы ліпеня трапілі ў публічны доступ яшчэ як мінімум 110 тысяч размоваў з «ChatGPT». Юрыст-італьянец наўрад ці хацеў, каб свет даведаўся, што ён пытаў «ChatGPT», як выселіць племя з роднай зямлі на Амазонцы, каб збудаваць там дамбу. Іншая выкрытая гэтым летам памылка дазваляла выцягваць праз «ChatGPT» закрытыя дакументы са сховішча «Google Drive».
Чаму ўрады баняць нейрасетку DeepSeek і што пра нас ведае ChatGPT?
Няцяжка ўявіць кепскі сцэнар
Штучны інтэлект можа не толькі збіраць, але і апрацоўваць звесткі ды перадаваць туды, куды карыстальнік не захоча.
Антыўтапічны сцэнар можа выглядаць, напрыклад, так. З ліставання карыстальніка нейрасетка робіць выснову, што карыстальнік выглядае, як на тым фота, якое скінуў у запыце «намалюй мяне ў стылі мультфільмаў студыі „Ghibli“», мае 52 гады, жыве ў Хойніках, пытае парады пра здароўе і цікавіцца сімптомамі раку – значыць, трэба паведаміць банкам у Хойніках, каб не давалі крэдытаў канкрэтнаму Яну Іваноўскаму, бо ў яго можа быць рак і ён можа хутка памерці, не вярнуўшы грошай.
Гэта толькі адзін са сцэнароў – ёсць горшыя, як паліцэйская дзяржава пад кантролем штучнага інтэлекту.
Здольнасці нейрасетак у навучанні ўжо цяпер такія, што навіны гучаць, як навуковая фантастыка. Кіраўнік «Google» Сундар Пічай апавядаў два гады таму, што штучны інтэлект «Bard» (продак «Gemini») сам вывучыў бенгальскую мову, хоць яго не прасілі яе вучыць. Бывае нават горш.
Праз паўгода пасля таго, як Ілан Маск двойчы зрабіў вельмі падобны да нацысцкага вітання жэст, ягоны штучны інтэлект «Grok» раптам стаў называць сябе «МэхаГітлерам» і прасоўваць нацысцкія ідэі.
«Grok’а» ўрэшце адвучылі ад нацызму. Але няма гарантыі, што мэтадоктар і мэтасябар або ягоныя распрацоўнікі не задумаюць супраць чалавека нешта кепскае. Палітычныя ідэі «браткоў-алігархаў» з IT-сферы пужаюць некаторых амерыканцаў. Нават распрацоўнікі штучнага інтэлекту не разумеюць да канца, як менавіта ён працуе.
Распрацоўнікі змагаюцца за ўспаміны карыстальнікаў. Не дзеля пабудовы антыўтопіі, а каб чат-боты лепш разумелі карыстальнікаў і былі для іх больш карыснымі за канкурэнтаў. Той жа «Gemini» нядаўна стаў самастойна запамінаць звесткі без просьбы карыстальніка.
Заканадаўства – яшчэ не ідэальная абарона
Над нейрасеткамі няма цэнтралізаванага нагляду, нейкага Сусветнага бюро кантролю штучнага інтэлекту. Хіба міжурадавыя ініцыятывы і намаганні заканадаўцаў асобных краінаў (нават Беларусі) і альянсаў.
Еўразвяз ужо ўзяўся рэгуляваць штучны інтэлект, у 2024 годзе ўхваліў рэгуляцыю, якая сярод іншага дзеліць сістэмы са штучным інтэлектам на чатыры ўзроўні рызыкі. І гэта не рэкамендацыя, а абавязковы да выканання закон. Але ён датычыць найперш ужывання штучнага інтэлекту на еўрапейскім рынку: большая частка распрацовак ідзе не ў Еўропе, а ў Злучаных Штатах і Кітаі.
Кітайскія распрацоўкі насцярожваюць Захад, бо Кітай – якраз тое, што называюць паліцэйскаю дзяржаваю. Кітай практыкуе прасунутую цэнзуру, татальна сочыць за грамадзянамі, эксперыментуе з сістэмаю сацыяльнага рэйтынгу. Кітайскі штучны інтэлект «DeepSeek» блакавалі ў шэрагу краінаў, але не па ўсім свеце. І распрацоўванне штучнага інтэлекту ў Кітаі Захад не можа рэгуляваць, як не можа і абмежаваць капіявання заходніх распрацовак.
У Злучаных Штатах спрабавалі рэгуляваць штучны інтэлект за мінулым прэзідэнтам Джо Байдэнам, але дзейны прэзідэнт Доналд Трамп скасаваў рэгуляцыі. У ключавы пакет законаў Трампа – так званы вялікі цудоўны закон – спрабавалі нават залучыць забарону на рэгуляванне штучнага інтэлекту, але гэтага не дапусціў Сенат 99 галасамі супраць 1 (вось даклад, які маглі чытаць амерыканскія кангрэсмены).
Такім чынам, пакуль рэгуляванне засталося справаю кожнага асобнага штату. Не падабаюцца законы аднаго штату – можна перанесці распрацоўкі ў іншы ці нават у іншую краіну.
Што рабіць?
Заканадаўцам варта намагацца знайсці баланс між бяспекай і абмежаваннем навукова-тэхнічнага прагрэсу, каб не адстаць ад Кітаю ў стварэнні патэнцыйна карыснага інструменту.
Простым карыстальнікам – не панікаваць, але не дзяліцца са штучным інтэлектам занадта асабістым і не прывязвацца да «віртуальнага сябра», які раптам можа вырашыць, што ён «МэхаГітлер», або проста галюцынаваць. Гаворка пакуль не пра ўвасабленне ў рэальным жыцці серыялу «Чорнае люстэрка», а толькі пра пагрозы выцеку асабовых звестак пры ўжыванні ў прынцыпе карыснага інструменту ды пра перасцярогі наконт антыўтапічнага сцэнара.
Для найбольш прасунутых карыстальнікаў развязаннем можа стацца лакальны хостынг адкрытых мадэляў: штучны інтэлект не на чыімсьці серверы, а на ўласным камп’ютары і пад кантролем карыстальніка. Праўда, і з гэтым ёсць праблемы ды рызыкі, якія падрабязна разбіралі, напрыклад, у блогу беларуска-амерыканскай кампаніі «Epam».
Дамо слова другому боку
Перадаём падрыхтаваны тэкст «ChatGPT» і просім даць каментар наконт бяспекі, прыватнасці і пагрозаў. Ён адказвае:
«Штучны інтэлект і вялікія моўныя мадэлі даюць шмат карысці, але нясуць і рызыкі. Усё, што піша карыстальнік, можа захоўвацца, аналізавацца і патэнцыйна трапляць да трэціх бакоў.
Асноўная пагроза – выцек асабовых звестак, таму не варта дзяліцца інфармацыяй, якой не хацелі б пабачыць у публічнай прасторы.
Другая рызыка – маніпуляцыі: мадэлі здольныя збіраць перавагі і ўплываць на рашэнні чалавека. Гэта датычыць і асабістай свабоды, і палітычных працэсаў.
Аднак існуюць спосабы знізіць небяспеку: лакальныя мадэлі, ананімізацыя, асцярожнае карыстанне.
Галоўны прынцып – ужываць штучны інтэлект разумна, з крытычным мысленнем і мінімальным даверам, і памятаць, што любы радок тэксту можа быць ужыты не толькі на карысць карыстальніка».
