menu
close

Themis AI de la MIT abordează problema incertitudinii în sistemele de inteligență artificială

Themis AI, un spin-off MIT fondat de cercetătorii Daniela Rus, Alexander Amini și Elaheh Ahmadi, a dezvoltat Capsa, o platformă revoluționară care permite modelelor de inteligență artificială să își recunoască propria incertitudine. Tehnologia abordează un defect critic al sistemelor AI actuale, care oferă răspunsuri cu încredere chiar și atunci când nu dețin suficiente informații. Prin cuantificarea incertitudinii modelului și semnalarea potențialelor erori înainte ca acestea să apară, Themis AI își propune să facă inteligența artificială mai sigură pentru aplicații cu miză ridicată în diverse industrii.
Themis AI de la MIT abordează problema incertitudinii în sistemele de inteligență artificială

Sistemele de inteligență artificială precum ChatGPT au devenit extrem de abile în generarea unor răspunsuri care sună plauzibil la aproape orice întrebare. Totuși, aceste sisteme nu reușesc adesea să își recunoască limitările sau să își exprime incertitudinea atunci când este cazul—o lipsă care poate reprezenta riscuri semnificative pe măsură ce adoptarea AI se accelerează în sectoare critice.

Themis AI, fondată în 2021 de cercetătorii MIT Daniela Rus, Alexander Amini și Elaheh Ahmadi, a dezvoltat o soluție pentru această problemă. Platforma lor, Capsa, poate fi integrată cu orice model de învățare automată pentru a detecta și corecta ieșirile nesigure în doar câteva secunde.

„Cu toții am văzut exemple de AI care halucinează sau face greșeli”, explică Amini, co-fondator Themis AI. „Pe măsură ce AI este implementată pe scară largă, aceste greșeli ar putea avea consecințe devastatoare. Themis face posibil ca orice AI să poată anticipa și prezice propriile eșecuri, înainte ca acestea să se întâmple.”

Tehnologia funcționează prin modificarea modelelor AI astfel încât acestea să recunoască tipare în procesarea datelor care indică ambiguitate, incompletitudine sau bias. Astfel, modelele pot cuantifica propria incertitudine pentru fiecare ieșire și pot semnala potențiale erori. Implementarea este remarcabil de simplă—fiind necesare doar câteva linii de cod pentru a transforma un model existent într-o variantă conștientă de incertitudine.

Capsa este deja aplicată în mai multe industrii. Companiile farmaceutice o folosesc pentru a îmbunătăți modelele AI care identifică potențiali compuși medicamentoși și prezic performanța studiilor clinice. Dezvoltatorii de modele lingvistice de mari dimensiuni o implementează pentru a oferi răspunsuri mai fiabile la întrebări și pentru a semnala ieșirile nesigure. Themis AI poartă, de asemenea, discuții cu companii din domeniul semiconductorilor pentru a îmbunătăți soluțiile AI destinate mediilor de edge computing.

„Prin cuantificarea automată a incertitudinii aleatorii și epistemice, Capsa este o tehnologie transformatoare care permite identificarea erorilor de model înainte ca acestea să devină greșeli costisitoare”, spune Rus, care este și director al Laboratorului de Informatică și Inteligență Artificială din cadrul MIT. „Aceasta extinde utilizarea sistemelor AI în aplicații unde siguranța și fiabilitatea sunt esențiale, precum robotica și conducerea autonomă.”

Pe măsură ce AI continuă să evolueze și să pătrundă în sectoare critice, soluții precum Capsa vor fi esențiale pentru construirea unor sisteme mai de încredere, care își recunosc limitările—un pas crucial către implementarea responsabilă a AI în medii cu miză ridicată.

Source:

Latest News