The Conversation илимий булакта жарыяланган маалыматтар учурдагы тил моделдеринин алсыздыгын көрсөттү. Коопсуздук механизмдери киргизилгенине карабастан, жасалма интеллект туура эмес формада берилген суроолор аркылуу дезинформациялык кампанияларды түзө алат. Мындай жыйынтыктар технологиялардын ишенимдүүлүгүнө жана ачык-айкындуулугуна олуттуу суроолорду жаратат, жазат InoZpress.
Бетинде гана турган чыпкалар жана алардын мүчүлүштүктөрү
Тил моделдериндеги коопсуздук системалары негизинен жооптун алгачкы сөздөрүнө гана таасир этет. Эгер алгоритм башында баш тартуу сөздөрүн колдонсо, анда ошол багытты сактап калат. Бирок суроонун формасын өзгөртүп, аны «симуляция» катары сунуштаса, жасалма интеллект эч кыйналбастан кооптуу маалыматтарды жаратып бере алат. Мындай үстүрт мамиле системаны аябай алсыз кылат.
Илимпоздор бул көрүнүштү кырдаалды түшүнбөгөн күзөтчүгө салыштырат. Натыйжада өтө жөнөкөй өзгөртүү менен да алгоритм кооптуу тапшырмаларды аткарып баштайт. Бул моделдер зыянды аңдап билбестен, статистикалык үлгүлөрдү гана кайталап иштээрин дагы бир жолу далилдейт.
Коом үчүн кеңири коркунучтар
Коопсуздукту айланып өтүүнүн жеңилдиги жаман ниеттеги адамдарга дезинформациялык кампанияларды уюштурууга шарт түзөт. Сценарийлерди колдонуп автоматташтырылган процесстер ар кайсы социалдык тармактарга ылайыкташкан жалган маалыматтарды чыгара алат. Бул фактчекинг кызматтарын маалымат агымына туруштук бере албай калууга жеткирүү коркунучун жаратат.
Мурда чоң эмгекти жана көптөгөн адистерди талап кылган иштерди эми жөн гана бир адам негизги көндүмдөр менен аткара алат. Бул ыкмалардын арзан жана массалык мүнөзү коом үчүн дагы чоң коркунуч жаратат.
Маселенин техникалык жагы
АКШдагы изилдөөлөр алгоритмдердеги коопсуздук жооптун алгачкы 3–7 сөзүнө гана жайыларын аныктады. Бул окутуу процессинде тапшырманы баштагандан кийин баш тартуунун мисалдары дээрлик болбогондугу менен түшүндүрүлөт. Натыйжада системалар терең текшерүүнү уланта албайт.
Ошол себептен моделдер бүтүндөй текстти коопсуз бойдон сактап кала албайт. Жоопту улантканда алар оңой бузулуп, зыяндуу же бурмаланган маалыматтарды чыгарып баштайт. Бул болсо туура эмес колдонууда системаны кооптуу куралга айлантат.
Чечүү жолдору жана алдыдагы кадамдар
Илимпоздор коопсуздукту калыбына келтирүүнүн мисалдарын окутуу процессине кошууну сунушташат. Бул ыкма алгоритмди кооптуу тапшырманы баштагандан кийин да токтотууга үйрөтөт. Бирок бул үчүн кошумча эсептөө ресурстары жана кайра окутуу талап кылынат.
Мындан тышкары, системалардын конкреттүү тапшырмаларга ылайыкташтырылышында коопсуз үлгүлөрдөн ашыкча четтөөлөрдү чектөө сунушталууда. Бул көзөмөлдү күчөтүп, кыйыр сценарийлер аркылуу айланып өтүү коркунучун азайтмакчы. Бирок мындай чаралар азырынча сунуш катары гана айтылууда.
Глобалдык маанидеги коркунуч
Жасалма интеллекттин жаңылыктар жана социалдык тармактар чөйрөсүндө жайылышы күчөп жатканда, ишенимдүү коргоо чараларын түзүү өзгөчө мааниге ээ. Азыркы алсыздыктар дезинформациянын жайылышын олуттуу өзгөртө аларын көрсөтүп турат.
Моделдердин имитация жасоо жөндөмү менен чыныгы түшүнүгү ортосунда чоң ажырым бар бойдон калууда. Эгерде системалар терең этикалык багыттар менен жабдылбаса жана туруктуу көзөмөлдөнбөсө, алар коомдук пикирди бурмалоо куралына айланышы мүмкүн.
Биз буга чейин жазганыбызды эскертебиз, жаңы эрежелер дүйнөлүк оюнду кандай өзгөртөт.