Жасалма интеллект (ИИ) чындыкка дал келбеген, бирок ишенимдүү болуп көрүнгөн маалыматты түзгөндө, бул ИИ галлюцинациясы деп аталат. Мындай көрүнүш ар кандай ИИ системаларында, чат-боттордон автономдуу транспорттук каражаттарга чейин байкалат. Бул көрүнүш олуттуу көйгөй жаратат, анткени туура эмес маалыматтар соттук чечимдерге, медицинага жана башка маанилүү тармактарга терс таасир тийгизиши мүмкүн.
Бул тууралуу «InoZpress» шилтеме берүү менен билдирди The Conversation
ИИ галлюцинациялары системанын түрүнө жараша айырмаланат. Үлкөн тил моделдеринде, мисалы ChatGPTде, бул каталар көбүнчө ишенимдүү угулуп, бирок чындыкка дал келбеген, ойлоп табылган маалыматтар түрүндө көрүнөт. Мисалы, ИИ болбогон илимий макалага шилтеме жасап же болбогон окуялар тууралуу жаңылыш маалымат бериши мүмкүн.
Галлюцинациянын пайда болушунун бир себеби — ИИ системасы маалыматты кантип иштеп чыгаарын жана аны анализдей тургандыгында жатат. Система чоң маалыматтардын топтомунан үйрөнүп, алардын арасынан ченемдерди табат жана ушул ченемдерди пайдаланып тапшырмаларды аткарат. Бирок, эгерде ИИ белгисиз маалыматка туш келсе же суроону түшүнбөй калса, ал «боштуктарды» туура эмес же ойлоп табылган маалымат менен толтуруп, каталарга алып келиши мүмкүн.
Галлюцинациялар тактык маанилүү болгон тармактарда көйгөй жаратат, мисалы, медицина, укук жана автономдуу технологиялар. Каталуу маалымат диагнозго, соттук чечимдерге же жол кыймылынын коопсуздугуна терс таасир этиши мүмкүн. Мисалы, автономдуу транспорттук каражат туура эмес маалымат алуу себебинен тоскоолдуктарды тааный албай калса, бул трагедияга алып келиши мүмкүн.
Бул маселени чечүүнүн бир чечими — ИИ берген маалыматтарды дайыма текшерүү жана анын жыйынтыктарына көңүл буруу. Мында тактык жана ишенимдүүлүк маанилүү болгон учурларда, система чектөөлөрүн түшүнүү жана аны билип туруу жардам берет.
Биз буга чейин жазганыбызды эскертебиз, ашканаларды багындырган робот-бариста.