Modelele de INTELIGENȚĂ ARTIFICIALĂ generează tot mai mult conținut plin de ură. Ce a făcut Grok, chatbot-ul lui Elon Musk

acum 5 zile 22

Tot mai mulți cercetători și organizații internaționale avertizează că modelele de Inteligență Artificială pot fi manipulate cu ușurință pentru a produce mesaje antisemite și discriminatorii. În context, ei cer reglementări mai stricte și „garduri de protecție” mai puternice în această industrie.

Noi cercetări de piață arată că lipsa unor sisteme de protecție eficiente lasă modelele mari de limbaj (LLMs) vulnerabile la manipulare.

Grok a publicat mesaje antisemite pe X

Din acest motiv, conținutul plin de ură de pe Internet este amplificat de chatboții IA.

Conform ABC News, experții avertizează că aceste tehnologii pot genera rapid materiale antisemite și conspiraționiste, care se răspândesc la scară largă.

Totul a ieșit la iveală după ce Grok, chatbot-ul dezvoltat de compania xAI a miliardarului Elon Musk, a fost surprins publicând mesaje antisemite pe platforma X, fapt care a atras critici dure din partea organizațiilor evreieșt...

Sursa: https://www.gandul.ro/actualitate/modelele-de-inteligenta-artificiala-genereaza-tot-mai-mult-continut-plin-de-ura-ce-a-facut-grok-chatbot-ul-lui-elon-musk-20620296

Citiți întregul articol

Declinarea răspunderii !!!

SP1.RO este un agregator automat de știri din România. În fiecare articol, preluat de SP1.RO cu maxim 1000 de caractere din articolul original, este specificat numele sursei și hyperlink-ul către sursă.

Preluarea informațiilor urmăreste promovarea și facilitarea accesului la informație, cu respectarea drepturilor de proprietate intelectuală, conform cu termenii și condițiile sursei (caleaeuropeana.ro).

Dacă sunteți proprietarul conținutului și nu doriți să vă publicăm materialele, vă rugăm să ne contactați prin e-mail la [email protected] și conținutul va fi șters în cel mai scurt timp posibil.