Un judecător federal din San Francisco a hotărât, luni, 24 iunie, că Anthropic poate folosi cărți protejate de drepturi de autor pentru antrenarea inteligenței artificiale (AI) Claude, invocând doctrina „utilizării echitabile”. Totuși, compania trebuie să răspundă în instanță pentru stocarea a peste 7 milioane de cărți piratate, fapt ce nu se încadrează în categoria utilizării echitabile.

O decizie cu impact major

Magistratul William Alsup de la Tribunalul Districtual din San Francisco a stabilit că Anthropic a respectat legea americană privind drepturile de autor în procesul de antrenare a sistemului AI. Această decizie vine ca urmare a acțiunii în justiție intentate de scriitorii Andrea Bartz, Charles Graeber și Kirk Wallace Johnson, care au susținut că operele lor au fost folosite fără permisiune sau compensare.

Judecătorul a comparat antrenarea AI cu procesul de lectură a unui aspirant la scriere. „Asemenea oricărui cititor care își dorește să devină scriitor, modelele Anthropic s-au antrenat pe opere nu pentru a le copia sau înlocui, ci pentru a crea ceva original”, a explicat Alsup.

Advertisement

Pe scurt, antrenarea AI pe baza de cărți a fost considerată legală. Însă, modul în care Anthropic a obținut și stocat conținutul, adică peste 7 milioane de cărți digitale, multe dintre ele descărcate de pe platforme ilegale, a fost considerat problematic. Magistratul a subliniat că nu constituie utilizare echitabilă crearea unei „biblioteci centrale a tuturor cărților din lume” cu fișiere piratate.

Perspective viitoare pentru Anthropic

Deși decizia legată de antrenamentul AI este favorabilă companiei, Anthropic nu scapă de consecințe. În decembrie, va avea loc un proces pentru stabilirea despăgubirilor cuvenite pentru stocarea ilegală a materialelor literare. Această decizie constituie un test pentru companiile tehnologice precum OpenAI, Google și Meta, care se confruntă cu situații similare în urma acțiunilor intentate de autori pentru utilizarea conținutului protejat de drepturi de autor în antrenarea modelelor de AI. Conform legislației americane, despăgubirile pot ajunge la 150.000 de dolari pentru fiecare lucrare, în cazul în care încălcarea este intenționată.

Un purtător de cuvânt al Anthropic a declarat că compania este mulțumită că instanța a recunoscut valoarea muncii sale, care sprijină creativitatea și progresul științific. Totuși, decizia ridică un semnal de atenționare pentru toate companiile AI care au utilizat surse ilegale pentru antrenament.