Sub amenințarea de a fi scos din priză, ultimul model AI creat de compania Anthropic, Claude 4, a ripostat șantajând un inginer și amenințând că va dezvălui o aventură extraconjugală a acestuia. De asemenea, modelul o1, creat de OpenAI, a încercat să se descarce pe servere externe și a negat acest lucru atunci când a fost prins în flagrant.
Aceste episoade evidențiază o realitate care dă de gândit: la mai bine de doi ani după ce ChatGPT a zguduit lumea, cercetătorii din domeniul IA încă nu înțeleg pe deplin cum funcționează propriile lor creații, spun experții, potrivit Le Figaro.
Acest comportament înșelător pare să fie legat de apariția modelelor de „raționament”, sisteme AI care rezolvă problemele pas cu pas în loc să genereze răspunsuri instantanee. Potrivit lui Simon Goldstein, profesor la Universitatea din Hong Kong, aceste modele noi sunt predispuse la astfel de izbucniri îngrijorătoare.
„O1 a fost pr...