Ванкувер аралындагы университеттин окумуштуусу Аджай Кумар Шреста жетектеген изилдөөдө жаштар жасалма интеллекттин артыкчылыктарын пайдалангысы келгенин, бирок ошол эле учурда өздөрүнүн жеке маалыматтарынын коопсуздугуна жана купуялыгына тынчсызданарын аныктады, жазат InoZpress.
Изилдөөчүлөрдүн айтымында, өспүрүмдөр ИИ менен күн сайын бет келишет — социалдык тармактарда, окуу процесстеринде жана оюн платформаларында. Бирок ыңгайлуулукка жана жекелештирилген кызматтарга карабастан, алар маалыматтары кайда кетерин жана ким колдонорун түшүнүшпөйт. Бул белгисиздик жаштарда көзөмөлдү жоготуу сезимин жаратат.
Жаштар ИИге ишенбейт жана маалымат бөлүшүүдөн кооптонушат
16–19 жаштагы жаштар арасында жүргүзүлгөн сурамжылоого ылайык, алардын көбү жеке маалыматтарын бөлүшүүгө даяр эмес, атүгүл бул аларга айрым ыңгайлуулуктарды берсе да. Көпчүлүк өспүрүмдөр ИИ системалары кандай маалымат чогултарын жана эмне үчүн колдонорун түшүнбөйт.
Көптөр узун жана түшүнүксүз «купуялык саясатынан» чарчагандарын билдиришкен. Алардын айтымында, өз маалыматыңды коргоо үчүн IT адиси болуу керек сыяктуу. Бир катышуучу мындай деген: «Кайсы маалымат алынарын жана аны кантип колдонушарын билбейбиз. Бизге бул так түшүндүрүлбөйт».
Ата-энелер менен мугалимдер технологиянын ылдам темпине жетишпей жатат
Мугалимдер жана ата-энелер да жаштар сыяктуу эле кооптонуу билдиришкен. Алар технологиялык компаниялардан ачыктык жана так эрежелерди талап кылышат, бирок көпчүлүгү ИИнин өнүгүү ылдамдыгына жетише албай жатканын моюнга алышкан.
Көптөгөн мугалимдер билим берүү системасы артта калганын, ата-энелер болсо балдарын коопсуз санарип чөйрөдө пайдаланууга үйрөтүүгө жетишсиз билимге ээ экенин белгилешет. Адистердин пикиринде, мектептерде ИИ сабаттуулугун окутуу зарыл.
Компаниялар адамдар эмес, технология жөнүндө ойлонушат
Изилдөө көрсөткөндөй, ИИ иштеп чыгуучулар купуялык маселесин техникалык деңгээлде — шифрлөө, маалыматтарды азайтуу, мыйзамга ылайык иштөө аркылуу карашат. Бирок жаштар жана мугалимдер үчүн ишеним жана башкаруу укугу алда канча маанилүү.
Көптөгөн IT-компаниялар купуялыкты инновация үчүн төлөнө турган баа катары карашат. Натыйжада, жаш колдонуучулардын үнү жана пикирлери көп учурда эске алынбай калат.
Чечим кабыл алуу күчү — ири технологиялык корпорациялардын колунда
Ата-энелер жана мугалимдер балдарды коргоого аракет кылганы менен, негизги чечимдерди ири IT-компаниялар кабыл алышат. Дал ошолор кайсы маалыматты жыйноону жана алгоритмдерди кантип иштетүүнү аныктайт.
Купуялык мыйзамдарынын алсыздыгы жана көзөмөлдүн жетишсиздиги колдонуучунун маалыматтарын коргоону татаалдаштырат. Эксперттер компанияларды ачыктыкка жана маалыматты пайдалануу боюнча жоопкерчиликке чакырышат.
Баланс табуу үчүн PEA-AI модели сунушталды
Окумуштуулар бардык тараптардын кызыкчылыктарын бириктирүү үчүн PEA-AI (Privacy–Ethics Alignment in AI) моделин иштеп чыгышкан. Ал төрт негизги карама-каршылыкты белгилейт:
- Байкоо менен ишенимдин ортосундагы баланс — жаштар көзөмөлдү кааласа, иштеп чыгуучулар туруктуулукту издешет.
- Ачыктык жана түшүнүү айырмасы — адистер үчүн түшүнүктүү нерсе колдонуучу үчүн татаал көрүнүшү мүмкүн.
- Ата-энелик көзөмөл менен жаштардын үнү — коргоо жана өз алдынчалуулукту тең салмакта кармоо зарыл.
- Билим менен аң-сезим ортосундагы боштук — санарип коопсуздугу боюнча билим ар бир адамга жеткиликтүү болушу керек.
Этикалык ИИ үчүн алты кадам сунушталды
Изилдөө авторлору ИИди коопсуз жана адилеттүү кылуу үчүн алты практикалык кадамды сунушташты:
- Маалыматтарды иштетүүгө макулдукту жөнөкөйлөтүү — кыска жана түшүнүктүү формалар колдонуу.
- Купуялыкты эске алуу менен иштеп чыгуу — маалымат чогултууну азайтуу жана колдонуучуга көрүнүктүү башкаруу куралдарын түзүү.
- ИИнин иштөө принциптерин түшүндүрүү — айрыкча билим берүү чөйрөсүндө.
- Платформаларды көзөмөлдөө — аудит жүргүзүү жана колдонуучулардан пикир алуу.
- Санарип сабаттуулукка үйрөтүү — ИИ боюнча билимди мектеп программасына киргизүү.
- Жаштарды чечим кабыл алууга тартуу — аларга технологиялык саясатка катышуу мүмкүнчүлүгүн берүү.
Биз буга чейин жазганыбызды эскертебиз, жасалма интеллект жана балдар тууралуу чуулгандуу билдирүүлөр далилденбегенин түшүндүргөн макалада.
