Үй Илим жана технологияларЖасалма интеллектти аныктоочу куралдар кантип иштейт жана аларга ишенсе болобу

Жасалма интеллектти аныктоочу куралдар кантип иштейт жана аларга ишенсе болобу

Күндөн көз айнек

Жасалма интеллект тексттерди, сүрөттөрдү жана үндөрдү жаратууда кеңири колдонулуп жаткан учурда, кайсынысы адам тарабынан, кайсынысы машина тарабынан түзүлгөнүн айырмалоо барган сайын маанилүү болууда. The Conversation маалыматына ылайык, Австралиялык адистер жасалма интеллектти аныктоочу системалардын канчалык натыйжалуу экенин изилдешкен, жазат InoZpress.

Генеративдик алгоритмдерди колдонуу буга чейин эле расмий документтерде жана отчеттордо каталарга алып келди, ал эми университеттер студенттердин иштерин кантип текшерүүнү талкуулап жатышат. Ушундай шартта ондогон куралдар пайда болууда — алар ИИ тарабынан жазылган же тартылган контентти аныктоону убада кылышат. Бирок бул системалар чыныгы авторду санариптик «эгизден» айырмалай алабы?

ИИ-детекторлор колдонгон ыкмалар

Азыркы текшерүү системалары бир нече ыкмага негизделет. Тексттер үчүн алар тилдик үлгүлөрдү издешет — кайталанган сүйлөм түзүлүштөрүн, сөздөрдүн ашыкча алдын ала айкалышын жана машиналарда көп кездешүүчү туюнтмаларды.

Сүрөттөрдү аныктоодо башка ыкмалар колдонулат: метамаалыматтарды талдоо, жасалма сүрөттөрдүн базалары менен салыштыруу жана жашыруун суу белгилерин издөө. Мындай белгилер адамга көрүнбөсө да, эгер алар генератор тарабынан кошулса, алгоритм оңой таап чыгат. Бирок бул ыкмалардын ар биринин өз чектөөлөрү бар.

Эмне үчүн системалар жаңылышат

Маселе — адамдын жана машинанын жазуу стили барган сайын окшошуп баратканында. Алгоритмдер адамдардын маалыматтарынын негизинде үйрөнөт, натыйжада эки дүйнөнүн ортосундагы чек өчүп жатат. Андан тышкары, текстти же сүрөттү кичине өзгөртүү да детекторду адаштырып жибериши мүмкүн.

Визуалдык системалар да кемчиликсиз эмес. Эгер сүрөт кичирейсе, жарыгы өзгөрсө же кыркылса, жашыруун белгилер жоголуп кетиши мүмкүн. Натыйжада адамдын эмгеги «машина жасаган» деп белгиленип, же тескерисинче, ИИ иши адамдык катары кабыл алынышы ыктымал.

Натыйжалуулугу жана тобокелдиктери

Кээ бир технологиялар, мисалы, Google компаниясынын SynthID системасы, өз моделдери тарабынан түзүлгөн контентти так аныктай алаарын билдирет. Бирок бул система азырынча жалпы колдонуучулар үчүн жеткиликтүү эмес жана башка компаниялардын продуктылары менен иштебейт. Бул көп платформалуу аныктоону кыйындаштырат.

Эң чоң коркунуч — система жаңылып, адамдардын тагдырына таасир этиши мүмкүн. Мисалы, студенттин иши «ИИ жазган» деп четке кагылат же журналист «жасалма текст жарыялады» деп айыпталат. Мындай жаңылыштык адамдын аброюна олуттуу зыян келтирет.

Колдонуучулар эмне кылышы керек

Эксперттер бир эле куралга ишенбөөнү сунушташат. Мындан көрө бир нече ыкманы айкалыштыруу керек: булактарды текшерүү, сүрөттөрдү салыштыруу, кошумча далилдерди суроо жана тексттин логикасын анализдөө. Айрыкча стиль жана мазмундук ырааттуулукка көңүл буруу маанилүү — бул жагынан жасалма интеллект али толук жетиле элек.

Негизги эрежеси — ишен, бирок текшер. Технологиялар өнүгүп жатат, бирок азырынча чыныгы баалоо жана логикалык ой жүгүртүү эң ишенимдүү ыкма бойдон калууда.

Биз буга чейин жазганыбызды эскертебиз, адам баласы чын эле симуляцияда жашайбы деген суроону жана матрица теориясынын байыркы дин окутууларына болгон окшоштуктарын талдаганбыз.

Сізге де ұнауы мүмкін