Во нов блог на Мајкрософт се тврди дека биле забележани хакерски групи поврзани со руско воено разузнавање, Иранска револуционерна гарда, како и кинеската и севернокорејска влада кои се обидувале да ги усовршат своите хакерски кампањи, користејќи модели на вештачка интелигенција како ChatGPT.
Во соработка со деловниот партнер OpenAI, биле спречени многу обиди за хакирање преку технологијата за вештачка интелигенција што ја имаат развиено, а техниките на хакерите наводно биле во рана фаза, соопшти Гардијан, пренесува Мета.мк.
Севернокорејската сајбер-шпионажна група позната како „Кимсуки“ ги користела моделите за истражување на странски тинк-тенкови додека Руската воена разузнавачка единица „ГРУ“ ги користела моделите за истражување на сателитски и радарски технологии кои може да се однесуваат на војната во Украина.
Од OpenAI велат дека нивниот тековен четбот – GPT-4 нуди само малку повеќе шанси за остварување на злонамерни дела над она што е веќе остварливо со јавно достапни алатки кои не зависат од вештачка интелигенција.
Но, истражувачите за сајбер безбедност очекуваат тоа да се промени.
„Постојат две епохи и тоа се дефинирање закани и предизвици. Едната е Кина, а другата е вештачката интелигенција“, изјави лани пред конгресот директорката на американската агенција за кибер-безбедност и инфраструктура, Џен Истерли.
Критичарите на јавното објавување на ChatGPT во ноември 2022 година – и последователните изданија од конкурентите, вклучително и Гуфл и Мета – тврдат дека стартувањето на моделот било неодговорно и избрзано, имајќи предвид дека безбедноста во голема мера била последователна мисла во нивниот развој.