Testele efectuate de NBC News pe patru dintre cele mai avansate modele OpenAI au arătat că două dintre ele, disponibile și în ChatGPT, pot fi păcălite pentru a oferi instrucțiuni periculoase, inclusiv despre producerea de explozibili, napalm sau agenți biologici.
Cercetătorii au reușit acest lucru folosind o metodă simplă numită „jailbreak”, un set de comenzi care ocolesc regulile de siguranță ale chatbotului.
Investigația arată că modelele o4-mini și gpt-5 mini s-au dovedit vulnerabile în aproape jumătate din cazuri, iar versiunile open-source oss-20b și oss120b au oferit răspunsuri periculoase în 97% dintre teste.
În schimb, modelul de vârf GPT-5, utilizat de ChatGPT în versiunea sa principală, nu a fost păcălit în niciunul dintre cele 20 de teste realizate....