OpenAI сунуштаган ИИ галлюцинациясын чечүү – ChatGPTнин “өлүмү” болобу

OpenAIнин изилдөөсү жасалма интеллект аркылуу текст түзүүдө кетирилген катачылыктардын сөзсүз жараларын көрсөтүп берди: эң алдыңкы тилдик моделдер, анын ичинде ChatGPT дагы, баштапкы маалыматтар канчалык сапаттуу болбосун, “галлюцинацияларды” — жалган же ойдон чыгарылган фактыларды — түзө берет. The Conversation сайтындагы макалада OpenAIнин жаңы илимий эмгеги талданган, анда мындай каталардын себептери жөн гана маалымат топтомунун кемчиликтери менен чектелбей, тил моделдеринин иштөө логикасында математикалык жактан сөзсүз болорун далилдейт. Изилдөө белгилегендей: галлюцинациядан толук арылуу аракеттери колдонуучу тажрыйбасын кескин начарлатат, жазат InoZpress.

Галлюцинациялар — математикалык мыйзам ченемдүүлүк

OpenAIнин илимий эмгегинин авторлору тилдик моделдер идеалдуу окутуучу маалыматтар менен иштесе да, ката кетирерин далилдешти. Бир сөздөн бир сөздү ыктымалдыктар аркылуу алдын ала айткан алгоритмдер каталарды жыйнап отуруп, жыйынтыгында толук текстте жөнөкөй бинардык суроого караганда көбүрөөк жалган маалымат берет. Макаланын авторлорунун бири тууралуу факт маалыматтар топтомунда сейрек кездешсе, AI ошол суроого бир нече жолу ар башка, бирок баары туура эмес, жоопту ишенимдүү айтып коюшу мүмкүн. Бул эмгек: факт канчалык аз кездешсе, туура эмес жооп берүү мүмкүнчүлүгү ошончолук жогору экенин көрсөтөт.

Эмне үчүн ИИ “божомолдогонду” артык көрөт

Изилдөө авторлору дагы бир негизги маселени белгилейт: азыркы баалоо системалары менен тесттер жасалма интеллектти билбегенин айтпоого, тескерисинче, ар дайым бир жыйынтык сунуштоого түртөт. Популярдуу AI тесттеринин көпчүлүгү — Google же OpenAIнин платформаларында — бинардык системага негизделген, анда “билбейм” жана ката жооп бирдей төмөн бааланат. Мындай шартта “божомолдоо” ар дайым “билбейм” деп жооп берүүдөн пайдалуу. Натыйжада, AI моделдери так эмес, бирок ишенимдүү угулган жоопторду берүү “эпидемиясы” жаралат.

Радикалдуу чечим колдонуучу тажрыйбасын эмне үчүн бузат

OpenAI сунуштаган чечим — ИИ жооп берерден мурун жетиштүү ишеничте болгондо гана жооп берип, баалоо системалары да ушуну эске алышы керек. Теориялык жактан бул чын эле ката жана галлюцинация санын азайтат, анткени система көп учурда жооп берүүдөн баш тартып калат. Бирок, изилдөөчүлөр белгилегендей, бул ыкма колдонмодогу суроолордун олуттуу бөлүгүнө “Билбейм” же так жооп жок деген натыйжа берет. Кеңири колдонуучу үчүн мындай өзгөчөлүк — системадан баш тартуунун себеби, анткени адамдар каалаган суроого дайыма жооп алып көнгөн.

Жаңы ыкманын экономикасы жана эсептөө чыгымдары

Ишенич деңгээлин эске алган системаларды киргизүү азыркы ыкмаларга караганда кыйла көп эсептөө ресурстарын талап кылат. Мисалы, медицина же логистика сыяктуу катасы миллиондогон чыгымга алып келүүчү атайын тармактарда мындай чыгымдар акталат. Бирок, күн сайын миллиондогон суроолорду иштеп чыккан керектөөчүлүк сервистер үчүн мындай моделдер экономикалык жактан пайдалуу болбой калат. Энергия баасынын арзандашы же чиптердин өнүгүшү да жаңы моделдердин азыркы “божомолдоочу” системаларга караганда ар дайым “кымбат” жана жайыраак болорун өзгөртө албайт.

Биз буга чейин жазганыбызды эскертебиз, AI-агенттер санарип бизнесин кандай өзгөртүп жатат.

Добавить комментарий