Microsoft компаниясы дипфейктерди жана санариптик материалдардагы манипуляцияларды таануу үчүн техникалык стандарттарды иштеп чыкты. Верификация системасын киргизүү жана ондогон текшерүү ыкмаларын талдоо тууралуу MIT Technology Review маалымдайт, жазат InoZpress.
Бул чечим жасалма интеллект аркылуу түзүлгөн контенттин тез жайылышына, ошондой эле технологиялардын ачыктыгы боюнча АКШ мыйзамдарынын жаңы талаптарына жооп катары кабыл алынган.
Санариптик текшерүү кандай иштейт
Сунушталган схема көркөм чыгармалардын түп нускасын тастыктоого окшош. Иштеп чыгуучулар төмөнкүлөрдү сунушташат:
- санариптик объекттин келип чыгуу тарыхын көзөмөлдөө
- файлдын талдоосунун негизинде уникалдуу математикалык кол тамга түзүү
- контентке кийлигишүү же өзгөртүү фактысын каттоо
Мындай «санариптик кол тамга» колдонуучуларга сүрөт же видео түп нуска экенин же оңдолгонун текшерүүгө мүмкүнчүлүк берет.
Microsoft адистери текшерүүнүн 60 түрдүү комбинациясын сыноодон өткөрүшкөн — метадайындарды өчүрүүдөн тартып мазмунга олуттуу өзгөртүүлөрдү киргизүүгө чейин. Натыйжада эң ишенимдүү айкалыштар аныкталып, аудиторияны адаштырышы мүмкүн болгон ыкмалар да белгиленген.
Система маалыматтын чын-төгүнүн баалабай турганы, болгону техникалык кийлигишүү фактысын каттай турганы баса белгиленет.
Стандарттарга эмне себеп болду
Жаңы текшерүү механизмдерине болгон муктаждык мыйзамдык демилгелер менен байланыштуу, анын ичинде август айында күчүнө кире турган калифорниялык «ИИ ачыктыгы жөнүндө мыйзам» бар.
Ошол эле учурда компания бул сунуштар Copilot, Azure же LinkedIn сыяктуу өз сервистерине киргизилерин азырынча тактаган жок.
Буга чейин Microsoft C2PA стандартын сунуштаган, ал эми Google 2023-жылдан тартып ИИ-контентти суу белгилери менен белгилеп келет. Бирок бул демилге башка рынок катышуучулары тарабынан каршылыкка туш болушу мүмкүн, эгерде алар аны өз бизнес-моделдерине коркунуч катары кабыл алышса.
ИИ-контентти белгилөө эмнеге татаал
Азыркы белгилөө системалары толук кандуу иштебейт. Изилдөө көрсөткөндөй, TikTok, YouTube жана Instagram сыяктуу популярдуу социалдык тармактардагы тесттик публикациялардын болгону 30 пайызы гана жасалма интеллект аркылуу түзүлгөнү тууралуу туура белгилерди алган.
Украинадагы согуш тууралуу жасалма интеллект аркылуу даярдалган видеолорду талдоо боюнча Open Minds порталында жарыяланган кошумча изилдөөдө, ИИ колдонулганын көрсөткөн комментарийлер чыныгы катары кабыл алынган билдирүүлөргө караганда кыйла аз көңүл бурдурганы аныкталган.
Мындан тышкары, алгоритмдердин минималдуу оңдоону толук ИИ-генерация катары кабыл алышы колдонуучулардын ишенимине доо кетирет. Microsoft сунуштаган комплекстүү ыкма мындай каталардын санын азайтып, коомдук пикирге манипуляция жасоону кыйла татаалдаштырууга багытталган.
Биз буга чейин Google Geminiге Lyria 3 негизинде музыка генерациясын кошкону тууралуу.
