
Aplicațiile inteligenței artificiale (A.I.) au consecințe majore atât pentru umanitate în ansamblu, cât și pentru fiecare individ; de aceea este vital să se găsească un echilibru între perspectiva dată de progresul AI și societatea umană în ansamblu. Aceasta deoarece erorile asociate cu astfel de tehnologii pot provoca probleme, dar și succesele necontrolate ar putea conduce la probleme și mai grave. În medicină, inteligența artificială poate fi clasificată în trei ramuri principale, și anume: virtuală, fizică și mixtă (o combinație între realitatea virtuală și roboți). Indiferent de ramură, dezvoltarea AI în medicină ridică aceeași întrebare: care sunt limitele tehnice și etice ale unei astfel de tehnologii? Există aproape un consens în lumea medicală că problema esențială a utilizării AI este cea a riscurilor etice, care afectează siguranța pacientului, autonomia persoanei (exprimată prin consimțământul informat și confidențialitate), protecția datelor personale etc. În 2012, sistemul AI Watson (I.B.M.), după o perioadă „de studiu” (ca student la medicină la Cleveland Clinic Lerner College of Medicine din Case Western Reserve University), a promovat examenul de autorizare a medicilor din S.U.A. Imediat s-a speculat: viitorul practicii medicale „standard” ar putea fi un computer ce va înlocui omul? Ulterior, s-a dovedit că Watson utilizat în practica medicală (oncologie) recomandă adesea tratamente nesigure și incorecte, aceasta deoarece datele utilizate pentru antrenarea algoritmului lui Watson nu au fost de la pacienți reali, ci date (ipotetice și insuficiente) de la pacienți virtuali. Și alte sisteme au avut aceeași problemă. S-a constatat că, atunci când întâlnesc date din lumea reală, care diferă de cele din seturile de date de antrenament, performanța AI poate fi mai slabă, ceea ce duce la riscuri clinice crescute. Riscurile și daunele apar din cauza erorilor de programare, testare, certificare a software-ului etc. toate însoțite de diverse aspecte legale și etice. Cercetătorii vorbesc despre utilizarea AI în medicină ca despre „o sabie cu două tăișuri” sau o „cutie a Pandorei din secolul XXI”. Există preocupări cu privire la proprietățile unice și riscurile inerente tehnologiilor AI mai ales asupra capacităților acestora de „luare a deciziilor.
Când AI medicală merge prost, poate provoca vătămări grave oamenilor. De exemplu: între 2000 și 2013, roboții chirurgicali din Statele Unite au fost responsabili pentru cel puțin 1.391 de incidente care au cauzat vătămări și 144 de decese; în 2015, britanicii au folosit un robot medical pentru a efectua o intervenție chirurgicală de reparare a valvei cardiace, iar robotul nu numai că a făcut erori operaționale grave, dar a și interferat cu funcționarea corectă a medicilor umani, ducând la moartea pacientului; – în 2019, U.S. Food and Drug Administration (F.D.A.) a descoperit că sistemul chirurgical robotizat ROSA Brain 3.0 are erori grave de software.
Ce este grav este faptul că defectele A.I. pot pune în pericol mai mulți pacienți decât un diagnostic greșit al unui medic, deoarece sistemele automate vor replica aceste erori la toți pacienții. Cele mai frecvente cauze ale erorilor inteligenței artificiale sunt calitatea datelor introduse, prejudecățile algoritmice și opacitatea algoritmului. AI folosește diverși algoritmi pentru a găsi corelații neliniare complexe în seturi de date masive analitice. Calitatea datelor determină în mod direct capacitatea AI de a rezolva probleme medicale. Există între informaticeni o afirmație axiomatică: „garbage in, garbage out” (gunoi introduci, gunoi iese). În medicina, datele sunt numeroase și complicate. Datele medicale provin din multiple surse și sunt eterogene: date din literatură, date din studiile clinice, date din lumea reală, date din sănătatea publică etc. Cei care creează algoritmii sunt informaticeni (rar sunt medicii care tratează pacienții) și de aceea se pot înșela atunci când stabilesc pertinența și concludența datelor. Pentru a înlătura acest impediment major ar trebui ca informaticenii să cunoască foarte bine medicina, iar medicii să cunoască foarte bine informatica, ceea ce e greu de realizat. Mai mult, majoritatea bazelor de date utilizate provin de la populații selectate și drept urmare, atunci când sunt aplicate unor grupe de pacienți subreprezentate, algoritmii pot să eșueze. De exemplu, dacă algoritmul este dezvoltat cu date care implică în principal occidentali, poate fi mai puțin precis în diagnosticarea asiaticilor. Așa cum a afirma Johnson în 2020, „sistemele AI sunt la fel de bune ca datele furnizate lor”.
Când s-au introdus aplicațiile AI în medicină, s-a crezut că astfel s-ar putea să se reduca riscurile, să se atenueze părtinirile existente în sistemul de sănătate (cum ar fi de exemplu părtinirile cognitive ale medicilor), conducând astfel la rezultate mai sigure și echitabile. Nu a durat mult și s-a constatat că algoritmii pot duce și la rezultate părtinitoare, care pot avea efecte de anvergură asupra rezultatelor. Prejudecățile algoritmice sunt definite ca defecte ale algoritmului și includ atât părtinirea indusă de om, cât și părtinirea indusă de date. Prejudecățile induse de om sunt determinate de scrierea, în mod intenționat sau neintenționat, a unui algoritm, care reflectă percepțiile morale și interesele relevante ale autorilor. Prejudecățile induse de date se referă la părtinirea algoritmului atunci când datele de antrenament nu sunt reprezentative sau insuficiente, ceea ce afectează modelul algoritmului. Ele nu numai că moștenesc părtinirile umane, dar este posibil ca acestea să fie întărite și amplificate. În numeroase situații, datele de instruire pentru AI din domeniul medical provin din unități medicale de nivel înalt, ceea ce duce la părtinire frecventă atunci când este utilizată în unități medicale de nivel inferior. Majoritatea algoritmilor exploatează corelațiile brute în date. Aceste corelații sunt adesea produse secundare ale relațiilor sociale importante. Prejudecățile algoritmice provin, uneori, și din datele purtătoare de încărcătură socială și rasială ce pot conduce la inechități și discriminare.
Opacitatea algoritmului constă în necunoașterea sau neînțelegerea modului în care algoritmul funcționează. Există mai multe explicații privind acest fenomen. Unul ține de secretul comercial și de brevetare. Dezvoltarea AI este dominată de marile companii private, iar algoritmii sunt secrete comerciale pe care companiile le ascund în mod intenționat. Deși companiile AI susțin că, produsele și serviciile lor sunt sigure și etice, ele nu au convins și companiile sunt în continuare criticate pentru că nu s-au angajat în dezbateri semnificative despre produsele și cercetările lor. Apoi, incapacitatea personalului medical și a publicului de a înțelege programarea și tehnicile algoritmice, deoarece mulți algoritmi se bazează pe o matematică foarte complicată inaccesibilă acestora. În sfârșit, fenomenul de „cutie neagra algoritmică” ceea ce înseamnă că intrările și ieșirile sunt vizibile și ușor de înțeles, dar procesul de la intrare până la ieșire nu poate fi explicat sau înțeles. Cu alte cuvinte, motivele din spatele rezultatelor unui algoritm nu sunt înțelese și nu pot fi interpretate nici măcar de creatorii lui. (va urma)
Lasă un răspuns