OpenAI аркылуу кардарлардын маалыматтары кантип чыгып кетти жана муну кантип алдын алууга болот

Жасалма интеллектке негизделген кызматтарды колдонгон көптөгөн компаниялар купуя маалыматтын API аркылуу сыртка чыгып кетүү коркунучу менен бет келишти. HackerNoon басылмасы жазгандай, Lab42AI изилдөөчүсү OpenAI’дын интерфейси аркылуу жөнөкөй суроо жөнөтүлгөн учурда да колдонуучунун жеке маалыматы жана ички метадайындары серверге берилерин көрсөттү, жазат InoZpress.

Маалымат кантип чыгып кетет

Адистердин айтымында, көпчүлүк компаниялар LLM кызмат көрсөтүүчүлөр (мисалы, OpenAI же Anthropic) колдонуучу менен агенттин ортосундагы бардык сүйлөшүүнү көрө аларын билишпейт. API аркылуу маалымат жөнөтүлгөн учурда система тексттерди эле эмес, моделдин параметрлерин, системалык көрсөтмөлөрдү жана токендерди да каттайт. Бул бизнес стратегиялардын, ички коддордун жана кардарлардын маалыматтарынын корголбой калышына алып келет.

Lab42AI жүргүзгөн экспериментинин жүрүшүндө жөнөкөй команда OpenTelemetry протоколдору түрүндө сакталары аныкталган. Бул логдордо IP даректер, метадайындар жана колдонуучунун суроолору жазылат. Эгер коопсуздук туура орнотулбаса, мындай маалыматтар тышкы көзөмөл системаларына өтүп, хакерлер же атаандаштар тарабынан колдонулушу мүмкүн.

Жеке маалыматтардын сыртка чыгышын кантип токтотуу керек

Адистер үчүнчү тараптын API кызматтарын колдонордон мурун алардын купуялык саясатын кылдаттык менен окууну сунуштайт. Айрым компаниялар колдонуучунун маалыматтарын моделдерин өркүндөтүү үчүн колдонушат, башкалары — аналитикалык максатта гана иштетет. Ошондуктан ишканаларда маалыматтарды классификациялоо тутумун түзүү маанилүү: адамды аныктоого мүмкүндүк берген бардык маалыматтар (ысымдар, даректер, банк реквизиттери ж.б.) тышкы суроолорго кошулбашы керек.

Мындан тышкары, кызматкерлерди купуя маалымат үлгүлөрүн таанууга үйрөтүү зарыл. Ири компаниялар API суроолорун жөнөтөрдүн алдында автоматтык фильтрлерди колдонушат. Бул ыкма каржы жана медицина сыяктуу жөнгө салынган тармактарда купуялык нормаларын сактоого жардам берет.

Локалдык моделдер — коопсуз альтернатива

Изилдөөчүлөр маалыматтын коопсуздугун камсыздоо үчүн Ollama сыяктуу локалдык ачык моделдерди колдонууну сунушташат. Бул платформа чоң тил моделдерин (LLM) өз сервериңизде иштетүүгө мүмкүндүк берет жана маалыматтын булутка өтүшүн толугу менен токтотот. Ollama Llama 3, Mistral, Gemma, Phi жана башка популярдуу моделдерди колдойт, бул компанияларга өз ресурстарына жараша тандап иштөөгө шарт түзөт.

Локалдык чечимдер маалыматтын толук автономиясын жана купуялыгын камсыздайт, бирок техникалык даярдыкты жана ресурстарды талап кылат. Орточо моделдер үчүн 16–32 ГБ оперативдик эс керек болсо, чоң моделдер үчүн 64 ГБ жана андан көп көлөм талап кылынат. Бул чыгымдарга карабастан, купуя маалымат менен иштеген компаниялар үчүн мындай ыкма эң ишенимдүү жол катары эсептелет.

Булут жана локалдык чечимдердин ортосунда тандоо

Булуттагы моделдер прототиптерди тез сыноо жана масштабдоо үчүн ыңгайлуу бойдон калууда. Бирок жеке маалыматтар жана бизнеске тиешелүү маанилүү маалыматтар иштетилген учурда локалдык же гибриддик системалар артыкчылыкка ээ. Бул ыкма өндүрүмдүүлүк менен купуялыкты айкалыштырып, маалымат агымын толук көзөмөлдөөгө мүмкүндүк берет.

Көпчүлүк аналитиктер жакынкы жылдары ишканалар гибриддик стратегияга өтүшөт деп эсептешет: купуя маалыматтар үчүн локалдык моделдерди, ал эми азыраак маанилүү кызматтар үчүн булуттук APIларды колдонуу. Бул ыкма компанияларга заманбап ИИ мүмкүнчүлүктөрүн колдонуп, ошол эле учурда маалыматтын коопсуздугун сактоого шарт түзөт.

Биз буга чейин жазганыбызды эскертебиз, ЖОЖдор менен ИИ-компаниялардын өнөктөштүгү билим берүүнү кандай өзгөртүүдө

Добавить комментарий