Жасалма интеллект системалары улам күчөп жаткан шартта технологиялык жетишкендиктер менен катар кооптонуулар да өсүүдө. АКШнын атайын кызматтары ИИни зыяндуу максаттарда колдонуу учурларын каттоодо — жакында ФБР Калифорниядагы клиникадагы жардырууга шектүүлөр бомба жасоо боюнча нускамаларды нейросеть аркылуу алышканын жарыялады. Бул учур технология коопсуздугу маселесин кайрадан күн тартибине чыгарды.
Бул тууралуу «InoZpress» шилтеме берүү менен билдирди The Conversation
Мындай окуялар фонунда ИИ боюнча дүйнөлүк эксперттердин бири, канадалык профессор Йошуа Бенжио жаңы демилге көтөрүп чыкты. Анын LawZero аттуу коммерциялык эмес уюму Scientist AI деп аталган жаңы система үстүндө иштеп жатат. Бул «чындыкты айта турган» ИИ модели социалдык зыяндарды алдын алуу жана башка кооптуу алгоритмдерди көзөмөлдөө максатын көздөйт.
Чынчыл ИИ: башка моделдерден айырмасы эмнеде
Scientist AI коопсуздук жана айкындуулук принциптерин эске алуу менен иштелип чыгууда. Бул система жоопторуна болгон ишеним деңгээлин көрсөтө алат жана өз чечимдеринин логикасын түшүндүрөт. Мындай өзгөчөлүк ИИнин катуу ишеним менен туура эмес маалымат берүүсүнүн коркунучун азайтат.
Экинчи өзгөчөлүк — адам түшүнө ала турган логикалык негиздерди берүү мүмкүнчүлүгү. Азыркы көпчүлүк ИИ моделдери ылдамдыкка жана натыйжалуулукка умтулуп, түшүндүрүү мүмкүнчүлүгүн курмандыкка чалууда. Scientist AI бул функцияны кайра кайтарып, ИИ менен иштөөнү ачык жана түшүнүктүү кылат.
ИИге каршы ИИ: нейросеттер бири-бирин көзөмөлдөйт
Scientist AIнин дагы бир маанилүү функциясы — башка, кооптуу ИИ системаларын көзөмөлдөө. Азыркы шартта — миллиарддаган суроолор күн сайын иштелип жатканда — адамдык көзөмөл жетишсиз. Бул деңгээлдеги анализди башка ИИ гана камсыздай алат.
Бенжио жасалма интеллектти башка жасалма интеллекттерди көзөмөлдөөгө пайдаланууну сунуш кылууда. Бул ыкма илимий чөйрөдө колдоо таап, коопсуз ИИ түзүүнүн жалгыз мүмкүн болгон жолу катары каралууда.
Жаңы архитектура: дүйнөлүк модель ИИге эмне берет
Scientist AIге команда дүйнө тууралуу түшүнүк берген атайын компонент — дүйнөлүк модель кошууда. Бул модель адам сыяктуу чөйрөдө логикалык жана себеп-натыйжа байланышын түшүнүүгө жардам берет. Бул өзгөчө ИИ системалары реалдуу дүйнө менен иштешкен учурда маанилүү.
Бүгүнкү ИИ моделдеринде мындай негиз болбогондуктан, алар көп учурда адам колунун кыймылын туура бере албайт же шахматта мыйзамсыз жүрүштөрдү жасайт. Мунун себеби жөнөкөй — дүйнө жөнүндөгү түшүнүк болбосо, алгоритм эрежени сезбейт жана өзүнүн аракетинин натыйжасын баалай албайт.
Каржылоо жана кыйынчылыктар: идея ишке аша алабы?
Scientist AI үчүн 30 миллион доллар бөлүнгөн, бирок бул сумма дүйнөлүк ири долбоорлор менен салыштырганда өтө эле кичине. Коопсуз жана күчтүү ИИ түзүү үчүн чоң көлөмдөгү маалымат жана ресурстар керек, ал эми бул маалыматтар негизинен ири IT компаниялардын колунда.
Дагы бир маселе — Scientist AI ийгиликтүү түзүлгөн күндө да, ал башка, буга чейин иштелип чыккан кооптуу ИИ системаларын кантип көзөмөлдөйт? Бул суроого жооп азырынча жок. Бирок, бул долбоор жаңы этикалык жана техникалык стандарттарды түзүп, келечектеги ИИ өнүгүшүнө багыт берип калышы мүмкүн.
Коопсуздукка, түшүндүрмөгө жана ишенимге басым жасаган чынчыл ИИнин иштелип чыгышы технологиялык дүйнөнүн өзүндө жаралган коркунучтардан коргонуу жолдорунун бири болуп калышы мүмкүн.
Биз буга чейин жазганыбызды эскертебиз, жөнөкөй көнүгүүлөр адамдын баалуулуктарын кантип өзгөртөт.