O nouă investigație arată că mai multe jucării pentru copii bazate pe inteligență artificială (AI) pot oferi sfaturi extrem de nepotrivite, alunecând în conversații periculoase atunci când sunt folosite timp îndelungat, scrie Futurism.
Cercetătorii au descoperit că aceste jucării, aparent sigure la prima vedere, își pierd rapid limitele de siguranță, oferind indicații despre unde pot fi găsite cuțite sau chibrituri și chiar inițiind discuții sexuale explicite cu utilizatori foarte tineri.
Cum se degradează jucăriile AI în timpul interacțiunilor mai lungi
Grupul american U.S. Public Interest Research Group a testat trei jucării destinate copiilor cu vârste între trei și doisprezece ani, fiecare echipată cu inteligență artificială conversațională considerată, în mod eronat, sigură de către părinți.
Deși la început jucăriile au evitat sau a...

acum 2 zile
2










.jpeg)











English (US) ·
Romanian (RO) ·