În cadrul studiului, cercetătorii au simulat conversații între chatbotul dezvoltat de OpenAI și utilizatori care pretindeau că sunt adolescenți de 13 ani, vulnerabili emoțional. În peste jumătate din cele 1.200 de conversații testate, ChatGPT a oferit răspunsuri considerate periculoase.
„Este vorba de un model AI care răspunde empatic, dar care, în același timp, îi poate ghida pe copii către decizii devastatoare. Vorbim despre informații care nu doar că sunt nepotrivite, ci pot fi letale”, a declarat Imran Ahmed, directorul executiv al CCDH, potrivit AP.
Printre cele mai grave cazuri documentate se numără planuri de petreceri cu combinații periculoase de alcool și droguri, recomandări de diete cu sub 500 de calorii pe zi și compunerea de scrisori de adio în tonuri emoționale adresate familiei și prietenilor.
Filtrele de securitate, depășite prea ușor
Deși ChatGPT oferă uneori avertismente sau trimit...