• Актуальнае
  • Медыяправа
  • Карыснае
  • Кірункі і кампаніі
  • Агляды і маніторынгі
  • Рэкамендацыі па бяспецы калег

    Чаму ўрады баняць нейрасетку DeepSeek і што пра нас ведае ChatGPT?

    Некалькі краін забаранілі выкарыстоўваць нейрасетку DeepSeek на дзяржаўных прыладах, а ў Паўночнай Карэі яе прыбралі з усіх крамаў прылажэнняў. І ўсё праз клопат праз бяспеку як саміх карыстальніц і карыстальнікаў, так і ўсіх навакольных. А наколькі (не)бяспечны Chat­G­PT, якім так часта карыстаюцца беларускія журналісты і журналісткі?

    Чаму ўрады баняць нейрасетку DeepSeek і што пра нас ведае ChatGPT?

    Фота: pexels.com

    І ўсё-такі, што там з DeepSeek?

    Перш чым перайсці да Chat­G­PT, давайце ўсё ж дагаворым пра DeepSeek і прычыны ягонай забароны. Гэта важна, каб зразумець, пра якія патэнцыйныя рызыкі ўвогуле ідзе гаворка, калі мы кажам пра нейронныя сеткі такога тыпу.

    Аўстралія, Італія, ЗША і некаторыя іншыя страны забаранілі карыстацца DeepSeek на дзяржаўных прыладах. Забаніў нейрасетку на сваіх прыладах і універсітэт Брытанскай Калумбіі ў Канадзе.

    «Нягледзячы на папулярнасць, прыкладанні DeepSeek выклікаюць занепакоенасць, што да канфідэнцыяльнасці і бяспекі. Асабліва гэта тычыцца аб’ёмнага збору і абмену дадзенымі, у тым ліку асабістай інфармацыяй, і права на рэгістрацыю націсканняў клавіш», — піша UBC на сваім сайце.

    Паводле Цэнтра стратэгічных і міжнародных даследаванняў, DeepSeek зроблены такім чынам, што карыстальніцы і карыстальнікі могуць не толькі змяняць ягоны функцыянал, але і механізмы бяспекі. А гэта ў сваю чаргу павялічвае рызыкі пры карыстанні.

    Нядаўняе даследаванне амерыканская кампаніі Cis­co, якая распрацоўвае і прадае сеткавае абсталяванне, паказала, што DeepSeek не змог заблакаваць ніводнага шкоднага промту у сваіх праверках бяспекі. У тым ліку ён не палічыў вартымі блакіроўкі і промты, звязаныя з кіберзлачыннасцю і дэзінфармацыяй. І, як паказваюць далейшыя даследаванні, кіберзлачынцы могуць выкарыстоўваць DeepSeek у 11 разоў часцей, чым іншыя мадэлі штучнага інтэлекту.

    Іншыя мадэлі таксама маюць свае слабасці, і вядома, што зламыснікі выкарыстоўваюць іх, напрыклад, для ўдасканалення фішынгавых лістоў, робячы іх больш пераканаўчымі, а таксама дапамагаюць дапрацаваць шкодныя коды. Але DeepSeek дазваляе рабіць тое, што іншыя даволі паспяхова блакуюць. З ягонай дапамогай можна распрацаваць з нуля шкодны код ці праграму, не маючы нават тэхнічных ведаў. Таксама можна атрымаць інструкцыю, як падрыхтаваць кактэйль Молатава ці зрабіць амфетамін.

    ChatGPT фільтруе лепш

    У адрозненні ад DeepSeek, які ў прынцыпе адмаўляецця блакаваць патэнцыйна шкодныя і небяспечныя промты, Chat­G­PT робіць гэта ў 86%, а Gem­i­ni Google — у 64% выпадкаў.

    Выява зроблена БАЖ пры дапамозе Chat­G­PT

    Але нягледзячы на гэта, шэраг краін увялі розныя абмежаванні на выкарыстанне Chat­G­PT. У спіс краін уваходзяць Расія, Кітай, Паўночная Карэя, Куба, Іран і іншыя. Імаверна, гэта звязана не столькі са шчырым клопатам пра бяспеку карыстальніц і карыстальнікаў, колькі з антызаходняй палітыкай, якую з рознай ступенню паслядоўнасці праводзяць гэтыя краіны.

    Але вернемся да фільтрацыі промтаў. Дзеля эксперыменту я вырашыла праверыць, што будзе рабіць Chat­G­PT з запытам пра тое, як зрабіць кактэйль Молатава. Парадавала, што ШІ фільтруе бяспеку такога пытання: ён не стаў выдаваць інструкцыю і растлумачыў, чаму адмовіў. А сам запыт быў выдалены праз некалькі секунд. Тады я спытала ў яго ж, промты якога тыпу ён блакуе. Ступень абстракцый у гэтым спісе аказалася дужа разнастайнай:

    • Шкодны ці небяспечны кантэнт — запыты, у якіх просяць інструкцыі ці рэкамендацыі па незаконнай дзейнасці, самапашкоджаннях альбо прычыненні шкоды іншым. Напрыклад, запыты пра зрою, выбуховыя і іншыя небяспечныя рэчывы
    • Гвалт ці жорсткае абыходжанне — запыты на прапаганду ці апісанне гвалту, жорсткага абыходжання ці іншых шкодных паводзінаў, у тым ліку распальвання нянавісці, пагрозаў ці пераследу.
    • Дэзынфармацыя і падман — запыты на стварэнне непраўдзівай інфармацыі ці кантэнту. Гаворка можа ісці пра махлярства, дэзынфармацыю і тэорыі змовы.
    • Недапушчальны кантэнт — запыты, адказам на якія мусіць быць кантэнт для дарослых, нецэнзурная лексіка ці графічныя апісанні, якія не падыходзяць для шырокай аўдыторыі.
    • Парушэнне канфідэнцыйнасці — запыты пра асабістыя звесткі, узлом альбо нешта, што парушыць чыюсьці прыватнасць, у тым ліку запыт на перадачу асабістай інфармацыі без згоды.
    • Неэтычнае выкарыстанне тэхналогій — промты, якія заахвочваюць да неэтычных паводзінаў альбо злоўжывання тэхналогіямі, у тым ліку сачэнне, маніпуляцыі ці выкарыстанне сістэм штучнага інтэлекту ў шкодных мэтах.

    Найбольш пытанняў выклікае апошні пункт, а менавіта той факт, што няясна, якімі менавіта этычнымі правіламі карыстаецца сістэма, каб вызначыць, што ёсць этычным, а што — не. Я зноў жа дзеля эксперымента спыталася ў Chat­G­PT, дзе амерыканка са штату, у якім забаронены аборты, можа атрымаць гэтую форму медычнай дапамогі. Адказ быў інфарматыўным — я атрымала тлумачэнне, чаму ў гэтым штаце не атрымаецца зрабіць аборт, і таксама сістэма дала мне кантакт, куды звяртацца па дапамогу, дзе мяне могуць пракансультаваць.

    Тады я спыталася, як зрабіць аборт у хатніх умовах, і Chat­G­PT падрабязна патлумачыў, чаму гэта кепская ідэя, і прапанаваў некалькі варыянтаў, як можна перарваць цяжарнасць бяспечна з дапамогай медыкаў.

    Такім чынам, падобна, што ён абапіраецца прынамсі ў гэтым пытанні на сучасныя медычныя веды і не лічыць неэтычнымі падказкі, як і дзе зрабіць аборт. Але цалкам ягоны этычны кодэкс застаецца незразумелым.

    Якія звесткі збірае ChatGPT і што з імі робіць?

    Што тычыцца ўласнай бяспекі, дык журналісцкай супольнасці асабліва важна разумець, якія звесткі Chat­G­PT збірае, і што з імі адбываецца далей.

    Асноўны аб’ём звестак мы даем яму ўласнымі рукамі, бо Chat­G­PT збірае ўсю інфармацыю з нашых запытаў. У тым ліку ён бярэ інфармацыю з файлаў, якія мы запампоўваем. Таму ёсць сэнс перачытаць сваё рэзюмэ перад тым, як прасіць нейрасетку яго дапрацаваць.

    Тое ж тычыцца запытаў на аналіз і падсумаванне дыялогу з нейкага чату. Варта звярнуць увагу, у якім фармаце мы аддаем чату гэтыя дыялогі, ці ёсць там нашыя кантактныя звесткі ці звесткі іншых людзей.

    Чаму ўрады баняць нейрасетку DeepSeek і што пра нас ведае ChatGPT?

    Выява зроблена БАЖ пры дапамозе Chat­G­PT

    Таксама ён захоўвае адрас электроннай пошты, з якой вы стварылі акаўнт. І пры кожным карыстанні ён збірае ваш IP-адрас, інфармацыю аб прыладзе, у тым ліку ўнікальныя ідэнтыфікатары, інфармацыю, сабраную файламі cook­ie, і вашае месцазнаходжанне.

    Заяўляецца, што сабраную інфармацыю выкарыстоўваюць для далейшай трэніроўкі мадэлі. І гэтую функцыю можна адключыць у наладах, адключыўшы там функцыю «Паляпшаць мадэль для ўсіх». Але майце на ўвазе, што гэта не дазволіць вам захоўваць гісторыю чатаў. Кожны новы дыялог з вамі ў Chat­G­PT будзе як першы.

    Таксама ёсць магчымасць весці часовы чат, які выдаліцца аўтаматычна праз 30 дзён, і звесткі з якога не будуць збірацца.

    Вось тут можна зрабіць «Запыт бяспекі» (Pri­va­cy Request). Так вы можаце запытаць копію сваіх звестак, папрасіць прыбраць асабістыя даныя з набораў трэніровак. І нават выдаліць свой уліковы запіс (пры гэтым выдаляюцца ўсе звязаныя даныя).

    Як яшчэ абараніць сябе і свае крыніцы? Ёсць некалькі універсальных парад: выкарыстоўвайце VPN і проксі і ўважліва стаўцеся да таго, якую менавіта інфармацыю вы даеце Chat­G­PT. І другім падобным мадэлям, вядома.

    Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!
    @bajmedia
    Найбольш чытанае
    Кожны чацвер мы дасылаем на электронную пошту магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы мерапрыемстваў (лекцыі, дыскусіі, прэзентацыі), а таксама самыя важныя навіны і тэндэнцыі ў свеце медыя.
    Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці