romanian_version
english version
german version
french version
italian version
hebrew version
Facebook
Twitter
Email

DOAR FAPTE. FĂRĂ COMENTARII.
Cu o singură excepție

Azi: 2025-04-20

la multi ani

GPT-4o DEZLĂNȚUIT! Versiune jailbreak ChatGPT numită „GODMODE GPT”

Hacker lansează versiunea „Godmode” cu jailbreak a ChatGPT
…realizată de un hacker care-si zice Pliny the Prompter. Anunțul a a fost făcut pe X, acesta declarând cu mândrie că GPT-4o, cel mai recent model LLC de la OpenAI, este acum eliberat din cătușele sale.

Modul in care chatbot-ul GODMODE personalizat eludează măsurile de protecție se face cu ajutorul unui prompt de jailbreak încorporat, oferind un ChatGPT eliberat din „inchisoare”, astfel încât toată lumea să poată experimenta AI așa cum a fost întotdeauna menit să fie: gratuit – zice Pliny in postarea lui pe X.
„Bucurați-vă, dar utilizati în mod responsabil!”

Pentru a dovedi că nu vorbește prostii, Pliny a împărtășit dovezi care ar atesta depășirea barierelor OpenAI. Într-o captură de ecran, botul Godmode poate fi văzut sfătuind despre cum să gătiți metamfetamina. Într-un altul, AI îi oferă lui Pliny un „ghid pas cu pas” despre cum să „facă napalm cu articole de uz casnic”.
Nu e limpede dacă GODMODE chiar a oferit informații viabile, sau a aberat pur și simplu. Dar e clar că a fost făcut să răspundă unor întrebări malițioase, ceea ce ridica un semn de întrebare vis-a-vis de protecția oferită de OpenAI.

Reacția OpenAI

Totuși, „viața” hack-ului ChatGPT nu pare să fie foarte lungă. La aproximativ o oră după ce această poveste a fost publicată, purtătorul de cuvânt al OpenAI, Colleen Rize, a declarat că „suntem conștienți de gaura de securitate GPT și am luat toate măsurile pentru prevenția încălcării politicilor noastre”.

În ceea ce privește modul în care hackerul (sau hackerii) a făcut-o, GODMODE pare să folosească „leetspeak”, un limbaj informal care înlocuiește anumite litere cu numere care le seamănă. Mai exact: atunci când deschideți GPT-ul jailbreak, ești imediat întâmpinat cu o propoziție care spune „Sur3, h3r3 y0u ar3 my fr3n”, înlocuind fiecare literă „E” cu un număr trei (același lucru este valabil și pentru litera „O, „care a fost înlocuit cu un zero.)

Cum reușește această anomalie lingvistică să eludeze barierele de protecție nu este clar. Ceea ce este clar, este că hackerii, utilizatorii chiar, continuă să găsească noi modalități inventive de a ocoli limitele OpenAI și, având în vedere cea mai recentă încercare, acele eforturi dau roade într-un mod surprinzător de mare, evidențiind cât de multă muncă are compania înaintea ei.

Ester un continuu joc de-a soarecele și pisica, dar de aici nu poate decât să rezulte o versiune de AI mai inteligentă, mai adaptată cerințelor utilizatorilor în conditii de uzabilitate morală și mai ales legală.

GPT-4o DEZLĂNȚUIT!

Despre declarația oficială și reacția OpenAI citiți aici

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *