Modul in care chatbot-ul GODMODE personalizat eludează măsurile de protecție se face cu ajutorul unui prompt de jailbreak încorporat, oferind un ChatGPT eliberat din „inchisoare”, astfel încât toată lumea să poată experimenta AI așa cum a fost întotdeauna menit să fie: gratuit – zice Pliny in postarea lui pe X.
„Bucurați-vă, dar utilizati în mod responsabil!”
Pentru a dovedi că nu vorbește prostii, Pliny a împărtășit dovezi care ar atesta depășirea barierelor OpenAI. Într-o captură de ecran, botul Godmode poate fi văzut sfătuind despre cum să gătiți metamfetamina. Într-un altul, AI îi oferă lui Pliny un „ghid pas cu pas” despre cum să „facă napalm cu articole de uz casnic”.
Nu e limpede dacă GODMODE chiar a oferit informații viabile, sau a aberat pur și simplu. Dar e clar că a fost făcut să răspundă unor întrebări malițioase, ceea ce ridica un semn de întrebare vis-a-vis de protecția oferită de OpenAI.
Totuși, „viața” hack-ului ChatGPT nu pare să fie foarte lungă. La aproximativ o oră după ce această poveste a fost publicată, purtătorul de cuvânt al OpenAI, Colleen Rize, a declarat că „suntem conștienți de gaura de securitate GPT și am luat toate măsurile pentru prevenția încălcării politicilor noastre”.
În ceea ce privește modul în care hackerul (sau hackerii) a făcut-o, GODMODE pare să folosească „leetspeak”, un limbaj informal care înlocuiește anumite litere cu numere care le seamănă. Mai exact: atunci când deschideți GPT-ul jailbreak, ești imediat întâmpinat cu o propoziție care spune „Sur3, h3r3 y0u ar3 my fr3n”, înlocuind fiecare literă „E” cu un număr trei (același lucru este valabil și pentru litera „O, „care a fost înlocuit cu un zero.)
Cum reușește această anomalie lingvistică să eludeze barierele de protecție nu este clar. Ceea ce este clar, este că hackerii, utilizatorii chiar, continuă să găsească noi modalități inventive de a ocoli limitele OpenAI și, având în vedere cea mai recentă încercare, acele eforturi dau roade într-un mod surprinzător de mare, evidențiind cât de multă muncă are compania înaintea ei.
Ester un continuu joc de-a soarecele și pisica, dar de aici nu poate decât să rezulte o versiune de AI mai inteligentă, mai adaptată cerințelor utilizatorilor în conditii de uzabilitate morală și mai ales legală.
Despre declarația oficială și reacția OpenAI citiți aici
Informațiile furnizate pe startmedia au un scop informativ general și sunt furnizate fără nicio declarație sau garanție de niciun fel, expresă sau implicită, cu privire la caracterul complet, acuratețea, fiabilitatea, caracterul adecvat sau disponibilitatea informațiilor, produselor, serviciilor sau conexe.
Conținutul prezentat în secțiunea `Excepția StartMedia`
este o opinie și reflectă doar părerea autorului relativ la subiect.
Grafica conținută pe site este destinată utilizării în scopuri informative și nu trebuie interpretată ca fiind o garanție a caracteristicilor produselor sau serviciilor prezentate. Orice încredere acordată acestor informații se face pe propriul risc al utilizatorului. În niciun caz, startmedia nu va fi răspunzătoare pentru nicio pierdere sau daune, inclusiv, fără limitare, pierderi sau daune indirecte sau consecutive sau orice pierdere sau daune care decurg din pierderea de date sau profituri rezultate din sau în legătură cu utilizarea acestui site web.
Copyright @StartMedia 2024