NBC News: Sistemele de siguranță ale ChatGPT pot fi păcălite pentru a oferi instrucțiuni despre arme

acum 5 ore 8

Mediafax

Testele efectuate de NBC News pe patru dintre cele mai avansate modele OpenAI au arătat că două dintre ele, disponibile și în ChatGPT, pot fi păcălite pentru a oferi instrucțiuni periculoase, inclusiv despre producerea de explozibili, napalm sau agenți biologici.

Cercetătorii au reușit acest lucru folosind o metodă simplă numită „jailbreak”, un set de comenzi care ocolesc regulile de siguranță ale chatbotului.

Investigația arată că modelele o4-mini și gpt-5 mini s-au dovedit vulnerabile în aproape jumătate din cazuri, iar versiunile open-source oss-20b și oss120b au oferit răspunsuri periculoase în 97% dintre teste.

În schimb, modelul de vârf GPT-5, utilizat de ChatGPT în versiunea sa principală, nu a fost păcălit în niciunul dintre cele 20 de teste realizate....

Sursa: https://www.mediafax.ro/externe/nbc-news-sistemele-de-siguranta-ale-chatgpt-pot-fi-pacalite-pentru-a-oferi-instructiuni-despre-arme-23623827

Citiți întregul articol

Declinarea răspunderii !!!

SP1.RO este un agregator automat de știri din România. În fiecare articol, preluat de SP1.RO cu maxim 1000 de caractere din articolul original, este specificat numele sursei și hyperlink-ul către sursă.

Preluarea informațiilor urmăreste promovarea și facilitarea accesului la informație, cu respectarea drepturilor de proprietate intelectuală, conform cu termenii și condițiile sursei (caleaeuropeana.ro).

Dacă sunteți proprietarul conținutului și nu doriți să vă publicăm materialele, vă rugăm să ne contactați prin e-mail la [email protected] și conținutul va fi șters în cel mai scurt timp posibil.