Un nou raport OpenAI a arătat că grupurile sponsorizate de stat folosesc aceleași instrumente disponibile public ca utilizatorii obișnuiți de internet și se confruntă adesea cu aceleași dificultăți. OpenAI a împărtășit recent detalii despre cum grupurile legate de guvern au încercat să folosească platformele lor.

Cazul cel mai notabil a venit dintr-o campanie de influență chineză care a fost expusă din întâmplare când un oficial chinez de aplicare a legii a folosit ChatGPT ca pe un jurnal personal. Oficialul a scris despre o operațiune care viza criticii chinezi care trăiesc în alte țări. Campania a implicat sute de operatori și mii de conturi false pe rețelele sociale, conform OpenAI.

Operațiunea a încercat să se deghizeze în ofițeri de imigrație ai Statelor Unite pentru a speria un disident spunând fals că declarațiile lor publice au încălcat legea americană. În alte cazuri, operatorii au folosit documente false pretinzând că sunt de la o instanță de judecată pentru a încerca să obțină eliminarea conturilor de social media ale criticilor.

OpenAI oferă o perspectivă asupra unei noi campanii de hărțuire

Ei au creat un necrolog fals și fotografii cu pietre funerare pentru a răspândi zvonuri false despre moartea unui disident. Aceste zvonuri au apărut de fapt online în 2023, a confirmat un articol în limba chineză de la Vocea Americii. Ben Nimmo, care conduce investigațiile la OpenAI, a numit efortul hărțuire industrializată îndreptată împotriva criticilor Partidului Comunist Chinez prin multiple canale.

Folosirea ChatGPT ca instrument de păstrare a înregistrărilor a dus la expunerea operațiunii. ChatGPT a funcționat ca un jurnal pentru operativ pentru a urmări rețeaua covertă, în timp ce alte instrumente au generat majoritatea conținutului efectiv care a fost răspândit prin rețelele sociale. OpenAI a interzis utilizatorul după ce a descoperit activitatea. Investigatorii OpenAI au corelat descrierile de la utilizatorul ChatGPT cu activitatea reală online.

Utilizatorul a descris falsificarea morții unui disident chinez creând un necrolog fals și fotografii cu pietre funerare pentru a fi postate online. Într-un alt caz, utilizatorul ChatGPT a cerut sistemului să creeze un plan pentru a dăuna reputației noului prim-ministru japonez Sanae Takaichi prin stârnirea furiei din cauza tarifelor americane. ChatGPT a refuzat. Dar la sfârșitul lunii octombrie, când Takaichi a preluat puterea, hashtag-urile au apărut pe un forum popular pentru artiști grafici japonezi atacând-o și plângându-se de tarife.

Microsoft dezvăluie tendințe similare în raportul său

Raportul OpenAI a acoperit, de asemenea, mai multe operațiuni de înșelăciune din Cambodgia care au folosit platforma pentru fraude romantice și de investiții, plus campanii de influență legate de Rusia care vizează Argentina și Africa. Într-un raport separat publicat de Microsoft în colaborare cu OpenAI, care analizează modul în care actorii statelor națiune din Rusia, Coreea de Nord, Iran și China încearcă să testeze modele de limbaj mari pentru a susține operațiunile de atac cibernetic.

Ambele companii au oprit eforturile celor cinci actori afiliați statului prin închiderea conturilor lor. Raportul Microsoft a constatat că acești actori doreau în principal să folosească serviciile pentru sarcini simple, cum ar fi căutarea informațiilor disponibile public, traducerea conținutului, repararea erorilor de codare și desfășurarea sarcinilor de programare de bază. Până acum nu au fost găsite atacuri majore sau noi utilizând modelele. Această diferență între frică și realitate apare în timpul unei competiții dure între Washington și Beijing pentru controlul acestei tehnologii.

Rolul pe care îl joacă în chestiuni militare și economice a devenit, de asemenea, o luptă majoră. Pentagonul a spus recent unei alte companii, Anthropic, că are timp până vineri pentru a elimina anumite caracteristici de siguranță din modelul său sau riscă să piardă un contract de apărare. Microsoft a spus că lucrează la principii pentru a diminua riscurile din utilizarea incorectă a acestor instrumente de către grupuri de state-națiune și organizații criminale. Aceste principii includ găsirea și oprirea utilizatorilor răi, informarea altor furnizori de servicii, colaborarea cu alte grupuri și fiind transparent.

Postarea raportului OpenAI dezvăluie că hackerii statelor națiune nu reușesc să obțină un avantaj cu AI a apărut prima dată pe Coinfea.