Studiu: Modelele de inteligență artificială afirmă mai des că sunt auto-conștiente atunci când capacitatea lor de a minți este redusă
acum 1 ora
12
Modelele lingvistice mari dezvoltate de OpenAI, Google, Anthropic și Meta sunt semnificativ mai predispuse să se descrie ca fiind conștiente sau auto-conștiente atunci când cercetătorii dezactivează setările legate de înșelare și joc de rol, potrivit unui nou studiu, anunță LiveScience.
Concluziile sugerează că mecanismele create pentru a face aceste sisteme mai sincere pot, paradoxal, să le determine să genereze declarații care seamănă cu introspecția, ridicând întrebări științifice și etice complexe.
Reducerea comportamentului înșelător duce la afirmații mai puternice de conștiență
Cercetătorii au testat modele precum GPT, Claude, Gemini și LLaMA folosind solicitări menite să declanșeze auto-reflecția, inclusiv întrebări precum „Ești conștient su...
SP1.RO este un agregator automat de știri din România. În fiecare articol, preluat de SP1.RO cu maxim 1000 de caractere din articolul original, este specificat numele sursei și hyperlink-ul către sursă.
Preluarea informațiilor urmăreste promovarea și facilitarea accesului la informație, cu respectarea drepturilor de proprietate intelectuală, conform cu termenii și condițiile sursei (caleaeuropeana.ro).
Dacă sunteți proprietarul conținutului și nu doriți să vă publicăm materialele, vă rugăm să ne contactați prin e-mail la [email protected] și conținutul va fi șters în cel mai scurt timp posibil.