Site icon InoZpress

Адамдын жана ИИдин максаттарынын шайкеш эместигин кантип өлчөө керек

Чат-бот

Чат-бот. Сурет - Pexels

Искуственный интеллект технологияларынын өнүгүшү менен маанилүү бир суроо пайда болот: ИИ адамдардын кызыкчылыктарын көздөй иштешин кантип камсыз кылуу керек? ИИдин максаттарын адамдык баалуулуктарга шайкеш келтирүү маселеси азыркы учурда маанилүү болуп жатат, анткени ИИдин мүмкүнчүлүктөрү экспоненциалдык өсүп жатат. 

Бул тууралуу «InoZpress» шилтеме берүү менен билдирди The Conversation

Бирок, чыныгы жашоодо бул маселени чечүү кыйын, анткени ар бир адамдын өзүнүн приоритеттери жана максаттары бар. Мисалы, жөө адам өзүнүн коопсуздугу үчүн, эгерде авария болуу коркунучу бар болсо, автономдуу унаанын катуу токтогонун каалаары мүмкүн, ал эми унаадагы жүргүнчү тоскоолдукту айлануусун кааласа да болот.

Максаттардын шайкешсиздиги: шайкеш эместикти кантип өлчөө керек?

Бул маселени чечүү үчүн, окумуштуулар максаттардын шайкешсиздигин баалоо үчүн үч негизги факторго негизделген методду сунушташты: адамдар жана ИИ, алардын ар кандай маселелер боюнча белгиленген максаттары жана ошол максаттардын маанилүүлүгү. Изилдөө көрсөткөндөй, шайкешсиздиктин деңгээли агенттер арасында максаттар бирдей бөлүштүрүлгөн учурда жогору болот. Бул логикалуу: эгерде бардыгы ар башка нерсени кааласа, кагылышуулар көп болот. Тескерисинче, эгер көптөгөн агенттер бирдей максатты бөлүшсө, шайкешсиздик азаят.

Маанилүү нерсе, ИИ коопсуздугу боюнча көптөгөн изилдөөлөр шайкештикти бардык же эч нерсе процесс катары карайт. Бирок сунушталган модель татаалыраак жана аралыктан турган абалдарды кабыл алат. Бул ИИ кайсы контекстте адамдар менен шайкеш келсе, кайсы контекстте болбосо аны так жана түшүнүктүү түрдө талдоого мүмкүндүк берет.

Бул технологиялардын келечеги үчүн эмне үчүн маанилүү?

Бул көз караш ИИ иштеп чыгуучулар үчүн маанилүү, анткени аларга «адамдык баалуулуктар менен шайкеш болуу» деген эмне экенин так түшүнүүгө жардам берет. Мисалы, ИИдин сунуш системасы, колдонуучуга товарларды сунуштап жатканда, сатуунун көтөрүлүшү үчүн шайкеш болушу мүмкүн, бирок кардардын бюджетине ылайык жашоону каалаган максатына шайкеш келбейт. Мындай айырмачылыктарды түшүнүү ИИ системаларын этикалык жана натыйжалуу кылууга жардам берет.

Жарыялагычтар үчүн бул шайкешсиздикти баалоо жана ИИ менен адамдын максаттарын шайкеш келтирүү үчүн критерийлерди орнотуу мүмкүнчүлүгүн берет. ИИ иштеп чыгуучулар жана коопсуздук боюнча топтор үчүн бул ар кандай кызыкчылыктарды тең салмактап, компромисс табууга жардам берет.

ИИ адамдык баалуулуктарга кантип шайкеш болуусу мүмкүн?

Изилдөө адамдардын жана ИИдин максаттарын кантип салыштыруу керек экендиги боюнча фокусталган. Адамдардын баалуулуктары жөнүндө маалыматтарды суроо аркылуу чогултса болот, ал эми ИИдин максаттарын анализдөө үчүн татаал ыкмалар керек. Кийинки учурдагы эң акылдуу ИИ системалары, мисалы чоң тил моделдери, өзүнүн табияты боюнча «кара ящиктер» болуп саналат, бул алардын максаттарын түшүнүүнү кыйындатат. Бирок, бул модельдерди интерпретациялоо боюнча изилдөөлөр алардын ички логикасын түшүнүүгө жардам бере алат жана, мүмкүн, максаттарын ачык кылат.

Келечекте окумуштуулар жана иштеп чыгуучулар ИИ максаттарын адамдын баалуулуктары менен шайкеш келтирүү үчүн өлчөө жана жакшыртуу боюнча куралдарды түзүүнү үмүттөнүп жатышат. Бул коопсуз жана натыйжалуу технологиялар үчүн маанилүү кадам болот.

Биз буга чейин жазганыбызды эскертебиз, жаңы технологиялар кызматкерлерди жумушка алуу ыкмасын кандайча өзгөртүүдө

Exit mobile version