Parlamentul European instituie reguli pentru IA – Deutsche Welle
Preocupat de inteligența artificială, Parlamentul European are în vedere o lege menită să țină sub control aplicații precum ChatGPT. Însă acest lucru ar putea dura, notează Deutsche Welle.
Uniunea Europeană este pe cale să reglementeze în premieră aplicațiile de „inteligență artificială”, respectiv programele de computer care au capacitatea de a învăța singure. În acest sens, Parlamentul European de la Strasbourg va dezbate miercuri, 14 iunie, un proiect de lege privind inteligența artificială. În timpul unei vizite în Germania, patronul companiei californiene OpenAI, care a lansat mult-discutatul generator de texte ChatGPT, a avertizat împotriva unei reglementări excesive. Totuși, el a renunțat până la urmă la amenințarea de a nu mai pune ChatGPT la dispoziție în Europa.
„În principiu, regulile vizând inteligența artificială sunt o chestie bună”, a declarat directorul OpenAI, adăugând că „este nevoie de claritate”. Sam Altman este un om solicitat, iar cuvântul său are greutate pe scena IA. Nu este o întâmplare că el a fost primit chiar de cancelarul german Olaf Scholz la Berlin.
Fără interdicții, dar cu standarde europene
René Repasi, membru al Parlamentului European, se raportează mai degrabă cu calm la activitatea de lobby la cel mai înalt nivel a OpenAI și a companiei-mamă – Microsoft. În opinia sa, piața europeană este mult prea atractivă pentru ca furnizorii de inteligență artificială să o ignore.
„Oricine vrea să își vândă inteligența artificială aici trebuie să respecte standardele noastre”, spune Reparsi, specialistul în inteligență artificială al social-democraților europeni. Dat fiind că și congresul american încearcă să stabilească reguli pentru mașinile capabile să învețe singure, europenii sunt în contact cu colegii americani, relatează Reparsi. „În definitiv dorim să creăm standarde utile și nu să ne facem concurență unii altora”, precizează el.
Companiile tehnologice americane au mult capital, cantități uriașe de date și o poziție dominantă unică pe care doresc să și-o pună la adăpost de concurență. Însă asta nu înseamnă că normele europene ar împiedica start-up-urile ingenioase din UE, între altele, să continue să dezvolte inteligența artificială, explică René Repasi. „Faptul că atât de mulți giganți din domeniul tehnologiei au sediul în SUA are mai mult de-a face cu piețele perturbate în care există monopoluri decât cu întrebarea unde găsim cele mai mari inovații”.
Avertismente împotriva IA
Geoffrey Hinton, unul dintre părinții inteligenței artificiale, fost angajat la Google, a avertizat recent cu privire la pericolele pe care le prezintă propria sa creație. Inteligența artificială generativă, a spus el, ar putea fi în curând mai inteligentă decât oamenii care au creat-o. Schimbările de pe piața muncii nu sunt încă previzibile, dar chiar și dezvoltatorii de sisteme și managerii de rang înalt de la Microsoft și Google recunosc că nu prea mai știu cum funcționează aplicațiile de inteligență artificială. Într-o scrisoare deschisă, cercetători și antreprenori, printre care și proprietarul Twitter, Elon Musk, au propus o pauză până la sfârșitul anului pentru a stabili limite în ceea ce privește dezvoltarea inteligenței artificiale.
UE răspunde așadar cu o nouă lege aflată în discuție de doi ani. În principiu, aceasta intenționează să clasifice aplicațiile IA în funcție de anumite categorii de risc. Sistemele cu risc ridicat, care analizează și pot preconiza comportamentul social al oamenilor într-un mod inacceptabil, ar urma să fie interzise. Sistemele cu risc ridicat ar trebui să fie supuse unor reguli și limitări. Aplicațiile simple, cum ar fi un generator de text precum ChatGPT, nu ar trebui să facă obiectul unor restricții majore.
Cu toate acestea, toate serviciile generate de inteligența artificială trebuie să poată fi identificate. Eurodeputatul René Reparsi citează exemplul aplicării pentru un credit de consum. În nu puține cazuri o astfel de cerere este deja verificată de mașini. „Dacă examinarea este negativă vrem să existe posibilitatea ca verificarea să poată fi făcută și de o ființă umană. Însă pentru a face acest lucru, trebuie mai întâi să știi că prima ta încercare a fost procesată de un sistem IA”.
O lege privind IA în UE peste doi ani
Legea europeană privind IA, care va intra efectiv în vigoare aproximativ la începutul anului 2025, va avea nevoie de acordul nu doar al Parlamentului European, ci și al tuturor celor 27 de state membre ale UE. Dezvoltările în materie de inteligență artificială, cum ar fi ChatGPT, care nici măcar nu erau pe piață în urmă cu doi ani, ar putea fi deja avansate în momentul în care regulamentul va intra în vigoare în UE, spune eurodeputatul Axel Voss: „Dezvoltarea sistemelor IA este atât de rapidă încât multe lucruri vor fi desuete la momentul intrării în vigoare a legii”, a declarat el în aprilie pentru DW.
Voss se dedică de mulți ani domeniului inteligenței artificiale pentru grupul creștin-democrat și este implicat în redactarea „legii UE privind inteligența artificială”. Politicianul avertizează împotriva utilizării interdicțiilor rigide. „Din motive de competitivitate și pentru că suntem deja în urmă, ar trebui să fim mai deschiși în abordarea IA. Numai că o majoritate din Parlamentul European se lasă ghidată de temeri și îngrijorări, încercând să excludă totul”. Comisarii pentru protecția datelor din statele membre ale UE solicită o monitorizare independentă a aplicațiilor IA și alte ajustări ale legislației privind datele.
În opinia deputatului social-democrat René Reparsi, legislația privind IA ar trebui să fie flexibilă. Întrebarea cu privire la ce este în domeniul AI risc ridicat și risc scăzut, nu ar trebui să fie reglementată în textul legii în sine, ci în anexă. Aceasta poate fi oricând modificată rapid și adaptată la evoluțiile tehnologice, spune el.
Inspecția tehnică pentru IA ar putea promova încrederea
Potrivit proiectului de lege, companiile care doresc să vândă aplicații de inteligență artificială riscante în Europa ar trebui să respecte condiții stricte și să dezvolte un management al riscului pentru produsele lor. De asemenea, datele cu care sunt antrenate programele de IA vor trebui să fie verificate. Oamenii care furnizează datele trebuie să fie informați cu privire la modul în care acestea sunt utilizate.
În aprilie, autoritatea italiană pentru protecția datelor a interzis pentru scurt timp ChatGPT din cauza unor deficiențe în materie de protecție a datelor și a autorizat din nou aplicația doar după ce compania care a produs-o, OpenAI, a făcut o serie de modificări. Asociațiile de supraveghere tehnică din Germania, Oficiul Federal pentru Securitatea în Tehnologia Informației și Institutul Fraunhofer pentru Sisteme Inteligente de Analiză și Informare au în vedere introducerea unui certificat pentru aplicațiile de inteligență artificială. La fel cum un automobil trebuie să treacă în Germania de TÜV (inspecția tehnică, n.r), IA ar trebui să fie certificată din punct de vedere tehnic de către controlori independenți. Pentru aplicații precum mașinile autonome sau roboții chirurgicali în domeniul tehnologiei medicale este necesar un nivel ridicat de încredere în IA, pe care l-ar putea asigura un atare certificat.