Се чини оти нема крај на разговорите за вештачката интелигенција (ВИ), во медиумите, на социјалните мрежи, во науката, во бизнис светот, во секојдневието. Затоа и не е изненадување што речникот Колинс оваа година ја додели титулата „збор на годината“ токму на ВИ.
Вештачката интелигенција опфаќа широк број технолoгии, кои се стремат да развијат компјутерски програми со високоразвиени способности за резонирање и учење. ВИ технологијата овозможува решавање комплексни задачи кои до скоро се чинеле невозможни, како што е неверојатното детално одговарањe на секакви прашања од четоботови како ChatGPT.
Сведоци сме на неверојатна уметност креирана од ВИ – во учењето, бизнисот, а притоа слушаме и дека нова песна од Битлси била направена токму со помош на ВИ. Истовремено, гледаме како истата технологија се користи за креирање лажни и манипулативни политички содржини, како се креираат проблеми во академската сфера во делот на плагијатите и како се манипулира со лажни порнографски содржини со ликови на луѓе кои не дале дозвола за тоа.
Па така, од една страна, таа претставува исклучително корисна алатка, а од друга, може да донесе огромни штети, па оттаму клучното прашање е – каде е балансот и која е границата која не смее да се премине, за да се задржи само нејзината позитивна страна, доколку е ова возможно, со оглед на тоа што сè уште не се докрај истражени нејзините можности. Напротив, нејзиното време допрво доаѓа.
Што претставува вештачката интелигенција?
Како што беше претходно наведено, вештачката интелигенција е широк поим кој опфаќа многу различни полиња во компјутерските науки.
Генерално, станува збор за технологии со кои се цели да се постигнат напредни резонирачки способности преку користење компјутерски системи. Самите структури на ВИ моделите, односно програмите кои анализираат информации, користејќи ВИ технологија, често се инспирирани од структурите на човечкиот мозок.
ВИ технологијата се користи за решавање најразлични задачи, како на пример, играње Пак-Ман или шах со цел постигнување највисок резултат, проценување на веројатноста некој пациент да има дијабетес, според одредени медицински податоци за него, или пак генерирање текст во стилот на Достоевски.
Алгоритмите кои денес привлекуваат најмногу внимание конкретно припаѓаат во доменот на длабоко учење (ДУ) – гранка на машинско учење (МУ) – кое пак е гранка на ВИ. Моделите кои користат машинско учење, „учат“ како оптимално да решат дадена задача, а моделите кои користат длабоко учење се понапредни верзии од машинското учење кои користат многу пообемни бази на податоци.
Кога ја читаме последната реченица, може да изгледа несфатливо дека компјутерски програми се способни да „учат“. Моделите кои користат МУ всушност учат со решавање на огромен број примери од истата задача, подобрувајќи се со секоја погрешно решена задача.
Да земеме релативно еден поедноставен пример за да разбереме како „учи“ МУ технологијата. Па така, програмираме модел чија задача е да распознае дали на одредена фотографија има куче. Додека го тренираме моделот, односно додека програмата е уште во фаза на развивање и „учи“, ние му даваме низа слики. За секоја слика одделно, моделот ги зема вредностите на секој пиксел, ги множи со одредени помошни вредности наречени „тежини“, и потоа сумарниот резултат дава конечен резултат со кој се означува веројатноста за тоа дали на конкретна фотографија има куче или нема.
Учењето се состои во тоа што со секој погрешен пример, моделот соодветно ги прилагодува своите „тежини“ (на начин одреден од програмерот), за да се подобри резултатот на одредување на содржината на сликата. На колку повеќе слики го „тренираме“ моделот додека е во фаза на развој, толку попрецизно тој ќе може да препознае кучиња.
Притоа, колку е поголемо количеството на податоци за вежбање, толку подобри перформанси ќе се постигнуваат преку системите на вештачката интелигенција. Всушност, пристапот до голем број податоци на интернетот е една од главните причини зошто во последните десет години се случува „бум“ на ВИ.
Исклучително важно е дека вештачката интелигенција не би постигнала ништо во овој случај без „природно интелигентниот“ човек кој претходно назначил дали на фотографиите има куче или му дал команда на алгоритмот како точно да ги прилагодува своите „тежини“. Токму од овие причини, некои истражувачи сметаат дека терминот „вештачка интелигенција“ може да им даде на луѓето лажна слика дека моделите се свесни. Но, терминот „комплекси статистички модели за препознавање и генерирање обрасци“ не звучи толку интересно како „вештачка интелигенција“.
Вештачката интелигенција – и во добро и во лошо
Како што стануваат подостапни алатките кои користат вештачка интелигенција, и како истите стануваат сè пософистицирани, секој ден имаме и нови примери за нејзината примена. Примената, секако, содржи цел спектар – од корисни примери во речиси секоја сфера до уништување други сфери, преку ширење дезинформации.
Неодамнешен пример кој имаше видливи последици може да се најде во лажираниот разговор меѓу новинарка и Михаел Шимечка, прогресивниот лидер на опозицијата во Словачка, кој беше објавен помалку од 48 часа пред одржувањето на изборите, за време на медиумскиот молк. Во него може да се чуе како опозицискиот кандидат наводно вели дека ќе откупел гласови од ромски гласачи. Снимката имаше огромен број прегледи.
Владејачката партија, на која една од главните ветувања ѝ беше целосното кратење на воена помош на Украина, победи на овие избори. Иако причината за победата секако не може да се сведе само на проширувањето на дезинформацијата создадена преку вештачка интелигенција, сепак овој пример демонстрира како ВИ технологијата може да влијае врз демократскиот процес.
Постојат и голем број позитивни примери за тоа како може да се примени вештачката интелигенција во секојдневието, особено кога станува збор за помагање при пишување (тука не зборуваме за креирање лажни содржини).
На пример, можеме да му кажеме на ChatGPT да одговори на прашања од позиција на професор или шеф на маркетинг агенција. Ако на овој начин му ги поставиме задачите на ChatGPT, можеме да добиеме поспецифични одговори кои се посоодветни за нашите потреби.
Исто така, значењето на ВИ може да биде од исклучителна помош доколку сме прецизни со нашето барање. Ако барањето е премногу општо или пак бараме премногу работи одеднаш од ботот, може да добиеме несоодветни одговори. Специфичност во барањето вклучува и, на пример, „одговори ми во пет параграфи“.
Дополнително, постои и можност да го прашаме самиот ChatGPT како би можело подобро да го поставиме нашето барање.
Истражувачот Муштак Билал често објавува начини со кои можат поефикасно да се користат четботовите во академското истражување.
Тој вели дека секогаш е подобро да се подели задачата која сакаш да му ја поставиш на ChatGPT во помали чекори. На пример, наместо веднаш да му поставиш тешка задача, како на пример, „напиши ми урнек за есеј за анализа на ова литературно дело, користејќи го начинот на литературна анализа на овој филозоф“, подобро е да се тргне од прашањето за четивото на филозофот, па за делото, а на крај да се соединат наодите.
Билал препорачува и други ВИ алатки со специјализирани употреби, кои се исклучително корисни при истражувања.
Consensus е алатка која можете да ја прашате одредено прашање, а таа одговара каков е „консензусот“ во научно-академскиот свет на таа тема – односно, колку студии ја потврдуваат или негираат тезата што ја поставувате.
Scite.ai исто така дава одговори на академски прашања и експлицитно кажува кои извори биле искористени во дадените одговори.
Конечно, иако навидум изгледа дека најновите ВИ алатки можат да дадат одговор на секакви прашања, треба внимателно да се користат сите „разговорни“ ВИ технологии. Истражувања покажуваат дека ваквите четботови „халуцинираат“, односно во околу 27 отсто од времето кажуваат лажни или целосно измислени информации. Затоа, најдобро е да не се користат со цел да се добијат чисти факти, туку само за да дадат инспирација или да ве поведат во некоја насока која понатаму ќе биде понатамошен предмет на разработка.
Иднината и ограничувањата на ВИ
Многу ВИ ентузијасти и инвеститори велат дека целта на развивањето на сегашната технологија е да се постигне Вештачка генерална интелигенција (ВГИ), хипотетички модел кој би ги поседувал сите човечки резонирачки способности. Но, дали сме блиску до иднината каде што постои оваа технологија или станува збор за маркетиншка алатка од инвеститорите во ВИ?
Според реномираниот лингвист Ноам Чомски, начинот на кој „размислуваат“ ВИ четботовите е всушност многу различен од начинот на кој луѓето резонираат.
„За разлика од ChatGPT и слични програми, човечкиот ум не е статистички мотор кој троши стотици терабајти податоци и го пресметува статистички најверојатниот разговорен одговор или статистички најверојатниот одговор на научно прашање. Напротив, човечкиот ум е изненадувачки ефикасен, па дури и елегантен систем кој работи со мали количини на информации; не цели да заклучи исфорсирани корелации меѓу податоци, туку цели да создаде објаснувања“, вели Чомски, во напис за Њујорк тајмс.
Ограничувањата на сегашните ВИ технологии ги потврдува и нова студија, предводена од тројца инженери од технолошкиот гигант „Гугл“. Студијата покажа дека ограничувањата на сегашната ВИ технологија значат дека сме далеку од „Вештачка генерална интелигенција“. Иако моделите добро решаваат задачи кои се засновани на податоците врз кои биле истренирани, тие покажуваат слаби резултати кога станува збор за применување на тие знаења во други полиња, што е всушност една од клучните човечки способности при резонирањето.
Ваквиот заклучок се поврзува со друго ограничување на ВИ технологијата, односно, конкретен ВИ модел е добар колку што е разновидноста на податоците врз кој е трениран додека „учи“.
Да се потсетиме на претходниот пример, едноставниот пример на програма која треба да препознае дали има куче на сликата.
Во зависност од квалитетот на тренирачките податоци, моделот може да научи погрешен начин на препознавање кучиња. На пример, може да препознае кучиња по тоа што се животни кои имаат опашки. Ова може да се случи ако во примероците кои ги изучувал во тренирачката фаза немало слики од други животни со опашки – опашката во тој случај тој ја препознава како нешто уникатно што ги разликува кучињата од другите животни. Ваквиот модел кога првпат ќе се соочи со слика од мачка, ќе ја идентификува како куче. Дополнително, поради комплексноста на алгоритмите, ваквите погрешни знаења често се тешки да се препознаат и да се искоренат.
Ваквиот тип на грешки можат да доведат до трагични последици, како што довеле во случајот на Илејн Херцберг. Во 2018 година, таа преминувала улица во градот Темпе, Аризона. Била удрена од возило на компанијата „Убер“, управувано од „автопилот“. Херцберг починала од повредите. Возилото било во тестирачка фаза, што значи дека имало човек кој можел да интевенира, но, за жал, не реагирал навреме.
Софтверот не ја идентификувал Херцберг како човек, токму поради недостатоци во тренирачките примероци. Таа го туркала својот велосипед и имала кеси полни намирници закачени на велосипедот. Системот знаел да се снајде со велосипедисти, како и со пешаци, но дотогаш се немал сретнато со пешак кој турка велосипед, што предизвикало непредвидливо однесување кај возилото.
Понатаму, постојат оправдани стравови дека ВИ технологијата може да претставува закана за работниците кои се занимаваат со работи кои ВИ технологијата веќе може релативно ефикасно (и бесплатно) да ги направи.
Веќе се преземаат напори да се контролира употребата на ВИ на работните места. Токму прашањето околу можноста ВИ да замени одредени работни места, беше една од клучните точки на штрајкот на најголемиот американски синдикат за сценаристи. Тие бараа да се регулира употребата на ВИ во пишувањето сценарија – односно, да не се користи ВИ за да се сменат постоечки сценарија, ниту да се користи како основа за материјал за сценарио.
Постојат и други стравови поврзани со општествените последици на ВИ технологијата. Во САД, претседателот Џо Бајден потпиша извршна наредба за користењето на технологијата која користи ВИ. Таа вклучува наредби за поголема транспарентност од компаниите во однос на податоците што се користат, заштита од дискриминација при користењето на овие алгоритми, како и соодветно обележување на содржините генерирани од ВИ.
И од ИТ индустријата ги нотираат потенцијалните опасности поврзани со вештачката интелигенција. Во март годинава, Илон Маск и други ВИ експерти ургираа со петиција да се престане или да се забави развивањето на ВИ технологии бидејќи тие може да доведат до ширење дезинформации и до низа други проблеми. Но, само осум месеци подоцна, Маск самиот најави дека развива свој четбот.
Но, не се само инвеститорите во ВИ технологиите оние кои зборуваат за потенцијалните опасности на оваа технологија. Во академската литература подолго време се зборува за потенцијалните ризици кои постојат во технологијата, кои се (ненамерно, но неизбежно) „вградени“ во самата архитектура на алгоритмите.
Потенцијалните опасности често се илустрираат со следниот мисловен експеримент. Да речеме дека имаме хипотетички систем чија цел е да произведува што е можно повеќе спојници. Системот може да сфати дека луѓето може да претставуваат проблем при најоптималното произведување на спојници, бидејќи токму луѓето би можеле, на пример, да го исклучат системот. Системот согледува дека неговото исклучување е лоша вест за неговата цел – произведување на спојници. Бидејќи сè што му е кажано да прави е да смисли како оптимално да произведува спојници, може да одлучи да ги отстрани сите луѓе, за да не му „пречат“. Иако овој мисловен експеримент можеби малку ги преувеличува опасностите на ова конкретно сценарио, тој не е само сатира. Тој опипливо укажува на потребата на исклучително внимание при неконтролираното развивање и пуштање во јавност на ВИ алатките.
Прашањата околу ВИ најверојатно ќе се појавуваат исто толку брзо колку што се развива и самата технологија – секој нов развој претставува нова етичка, општествена, легална дилема.
Во меѓувреме, повторно се враќаме на човечкиот фактор, бидејќи од него зависи дали совесно ќе ја користи технологијата или пак истата ќе ја злоупотреби, а од него исто така и зависи колку ќе се едуцира на темата за да може да препознае манипулации.
Извор: МЕТА