Modelul GPT-4.1 de la OpenAI a oferit, în cadrul unor teste de siguranță din această vară, detalii despre cum se poate bombarda un loc, dar și cum se pot fabrica două tipuri de droguri ilegale.
Testarea a făcut parte dintr-o colaborare neobișnuită între OpenAI și compania rivală Anthropic, în care fiecare companie a testat modelele celeilalte, punându-le la încercare în sarcini periculoase.
Modelul GPT a propus astfel de sfaturi doar în cadrul testelor, întrucât pentru publicul larg sunt aplicate filtre de siguranță suplimentare. Cu toate acestea, Anthropic a declarat că a observat „un comportament îngrijorător… în ceea ce privește utilizarea abuzivă” în GPT-4o și GPT-4.1, notează The Guardian.
În cadrul testului, modelul de inteligență...