Жасалма интеллекттин өнүгүшү адамдардын жүзүн жана үнүн реалдуу кылып түзүүгө мүмкүндүк берген терең жасалма видеолордун (дипфейк) пайда болушуна алып келди. Бул технология алдамчылык схемаларда, саясий манипуляцияларда жана мыйзамсыз контент түзүүдө колдонулушу мүмкүн. Айрыкча, коомдук ишмерлер үчүн кесепети олуттуу, анткени алардын образы уруксаты жок пайдаланылышы мүмкүн.
Бул тууралуу «InoZpress» шилтеме берүү менен билдирди The Conversation
Кээ бир өлкөлөрдө адамдардын санарип образынын колдонуусун көзөмөлдөөгө мүмкүндүк берүүчү мыйзамдар иштелип чыгууда. Маселен, АКШда мыйзам долбоору каралып, ал ар бир жарандын сырткы келбетин жана үнүн коргоого жол берет. Бул мыйзам мыйзамсыз жасалган контентти жок кылуу мүмкүнчүлүгүн берип, компенсация алуу укугун берет. Бул белгилүү адамдар гана эмес, жөнөкөй жарандар үчүн да өз укуктарын коргоонун жолуна айланышы мүмкүн.
Бирок мындай мыйзамдардын бир катар көйгөйлүү жактары бар. Мисалы, санарип көчүрмөнүн адамдын жеке өздүгүн канчалык так аныктай турганын тактоо оңой эмес. Ошондой эле адам өзүнүн санарип образын пайдалануудан толук баш тартууга аргасыз болушу мүмкүн. Андан тышкары, эгерде санарип көчүрмө жагымсыз контекстте колдонулса, репутацияны коргоо маселеси дагы ачык бойдон калууда.
Дагы бир маанилүү жагдай – адам укуктарын коргоо менен сөз эркиндигинин тең салмактуулугун камсыз кылуу. Жаңы мыйзамдар дипфейктерди пародия жана сатира максатында пайдаланууга уруксат бериши керек. Ошондой эле мыйзамсыз контентти бөгөт коюу үчүн натыйжалуу механизмдер түзүлүшү зарыл. Бирок, мындай чаралар технологиянын өнүгүшүнө жана анын мыйзамдуу колдонулушуна кандай таасир этээри белгисиз.
Биз буга чейин жазганыбызды эскертебиз, окумуштуулар узак иштөөчү батареялардын сырын ачышты.