Светот „можеби нема време“ да се подготви за безбедносните ризици што ги носат најнапредните системи на вештачка интелигенција, предупреди водечки експерт од британската владина научно-истражувачка агенција.
Дејвид Далримпл, програмски директор и експерт за безбедност на вештачката интелигенција во агенцијата ARIA, изјави за The Guardian дека јавноста и носителите на одлуки треба сериозно да се загрижат од брзината со која напредува технологијата.
„Мислам дека треба да бидеме загрижени од системи што можат да ги извршуваат сите функции што луѓето ги извршуваат за да ги завршат работите во светот – но подобро од нив“, изјави Далримпл. „Ќе бидеме надминати во сите домени во кои мора да доминираме за да ја задржиме контролата врз нашата цивилизација, општество и планета.“
Далримпл укажа на јазот во разбирањето меѓу јавниот сектор и компаниите што развиваат вештачка интелигенција во однос на моќта на претстојните технолошки пробиви.
„Би советувал да се земе предвид дека работите се движат исклучително брзо и дека можеби нема да имаме време да бидеме чекор пред нив од аспект на безбедноста“, рече тој. „И не е научна фантастика да се предвиди дека во рок од пет години повеќето економски вредни задачи ќе ги извршуваат машини – со повисок квалитет и пониска цена од луѓето.“
Далримпл нагласи дека владите не треба да претпоставуваат дека напредните системи се по природа сигурни. Агенцијата ARIA е јавно финансирана, но независна од владата и има улога да насочува истражувачки средства. Во моментов, Далримпл работи на развој на системи за заштита на употребата на вештачката интелигенција во критична инфраструктура, како што се енергетските мрежи.
„Не можеме да претпоставиме дека овие системи се сигурни. Науката што би го гарантирала тоа едноставно нема веројатно да се развие навреме, имајќи го предвид економскиот притисок“, рече тој. „Затоа, следната најдобра работа што можеби ќе успееме да ја направиме навреме е да ги контролираме и ублажиме негативните последици.“
Опишувајќи ги последиците од технолошки напредок што ја надминува безбедноста како „дестабилизација на безбедноста и економијата“, Далримпл истакна дека е потребна значително повеќе техничка работа за разбирање и контрола на однесувањето на напредните AI-системи.
„Напредокот може да се претстави како дестабилизирачки, но исто така може да биде и позитивен – што е надежта на многумина што работат на самиот технолошки фронт“, рече тој. „Јас работам на тоа работите да одат во подобра насока, но ризикот е исклучително висок, а човечката цивилизација во целина како да чекори во сон кон оваа транзиција.“
Овој месец, Институтот за безбедност на вештачката интелигенција на Обединетото Кралство (AISI) соопшти дека способностите на напредните AI-модели „брзо се подобруваат“ во сите области. Според институтот, перформансите во одредени домени се удвојуваат на секои осум месеци.
Водечките модели сега можат да извршуваат задачи на ниво на практикант во 50% од случаите, во споредба со околу 10% минатата година. AISI исто така утврди дека најнапредните системи можат автономно да завршат задачи за кои на човечки експерт би му биле потребни повеќе од еден час.
Институтот ги тестираше и напредните модели за саморепликација – клучна безбедносна загриженост, бидејќи таквото однесување би им овозможило на системите да шират свои копии на други уреди и да станат потешки за контрола. Тестовите покажале дека два од најнапредните модели постигнале стапка на успех поголема од 60%.
Сепак, AISI нагласи дека најлошото сценарио е малку веројатно во секојдневни услови, наведувајќи дека секој обид за саморепликација е „малку веројатно да успее во реални услови“.
Далримпл верува дека до крајот на 2026 година, AI-системите ќе можат да автоматизираат еквивалент на целодневна истражувачко-развојна работа, што ќе доведе до „понатамошно забрзување на способностите“, бидејќи технологијата ќе може самостојно да се подобрува во математичките и информатичките аспекти на сопствениот развој.
Неодамна Извршниот директор на OpenAI, Сем Алтман, истакна дека следниот клучен чекор на патот кон надчовечка вештачка интелигенција нема да биде поврзан со разбирањето или расудувањето, туку со нешто многу пофундаментално – меморијата.
Говорејќи во Big Technology Podcast, Алтман изјави дека вистинскиот пресврт ќе се случи кога AI системите ќе добијат, како што тој го опишува, „бесконечно и совршено паметење“. Според него, OpenAI веќе работи на тоа вештачката интелигенција уште во 2026 година да биде способна да го памети „секој детал од целиот живот на корисникот“.
Редакција Фронтлајн







