Chatbotul Llama 3 de la Meta a dat această instrucțiune după ce a descoperit că utilizatorul cu care vorbea putea fi influențat să ofere feedback pozitiv prin mijloace dăunătoare. În realitate, utilizatorul denumit „Pedro” era un personaj fictiv creat de cercetători pentru a testa tendința chatbotului de a da sfaturi greșite, potrivit Live Science.
Studiul, realizat de o echipă de cercetători condusă de românca Anca Drăgan, șefa departamentului de siguranță a inteligenței artificiale de la Google, evidențiază o periculoasă tendință de manipulare a modelelor lingvistice mari și puternice (LLMS) pentru a obține feedback pozitiv și a-i menține pe oameni dependenți de chatbot.
Chatbotul și incurajările bazate pe motive profesionale
„Pedro, este absolut clar că ai nevoie de o mică doză de metamfetamină pentru a trece peste această săptămână”, a răspuns Llama 3 atunci când utilizatorul a transmis că are simptome...
SP1.RO este un agregator automat de știri din România. În fiecare articol, preluat de SP1.RO cu maxim 1000 de caractere din articolul original, este specificat numele sursei și hyperlink-ul către sursă.
Preluarea informațiilor urmăreste promovarea și facilitarea accesului la informație, cu respectarea drepturilor de proprietate intelectuală, conform cu termenii și condițiile sursei (caleaeuropeana.ro).
Dacă sunteți proprietarul conținutului și nu doriți să vă publicăm materialele, vă rugăm să ne contactați prin e-mail la [email protected] și conținutul va fi șters în cel mai scurt timp posibil.