Acuzațiile companiilor, vin pe fondul competiției tot mai intense dintre SUA și China pentru supremația în domeniul AI, arată Euronews.
Tehnica, adesea numită și „atac de extracție de model” sau „distilare AI”, presupune solicitarea repetată a unui model AI puternic – uneori de mii sau milioane de ori – pentru a genera un vast set de răspunsuri. Aceste date sunt apoi folosite pentru a instrui un model nou, de dimensiuni mai mici, mai rapid și mai puțin costisitor.
„Distilarea AI”- acceptată doar în anumite conjuncturi
Practic, modelul original este „interogat” cu un număr masiv de cereri (prompturi), iar rezultatele sale devin materialul didactic pentru noul sistem. Conform Anthropic, această abordare poate accelera semnificativ dezvoltarea unui sistem concurent, reducând costurile iniți...

acum 1 ora
6























English (US) ·
Romanian (RO) ·