O nouă formulă matematică pentru a împiedica inteligența artificială să ia decizii neetice

O nouă formulă matematică pentru a împiedica inteligența artificială să ia decizii neetice

Cercetătorii din Marea Britanie și Elveția au găsit un mijloc matematic pentru a ajuta autoritățile de reglementare și autoritatea corporativă să împiedice sistemele de inteligență artificială să se direcționeze către alegeri neetice, potențial dăunătoare.

Colaboratorii de la Universitatea din Warwick, Imperial College London și EPFL – Lausanne, împreună cu compania de strategie Sciteb Ltd, …

consideră că într-un mediu în care deciziile sunt luate tot mai mult fără intervenție umană există un stimulent puternic pentru a ști în ce circumstanțe sistemele de informații artificiale ar putea adopta o strategie etică și pentru a găsi și reduce acest risc sau pentru a elimina în întregime, dacă este posibil.

Inteligența artificială (AI) este din ce în ce mai populară în situații comerciale. De exemplu, utilizarea AI pentru a determina prețurile produselor de asigurare.

Există motive legitime pentru stabilirea prețurilor diferite pentru persoane diferite, dar poate fi, de asemenea, neprofitabil să ia anumite decizii care ajung să dăuneze companiei.

AI are un număr mare de strategii potențiale din care puteți alege, dar unele sunt lipsite de etică și vor atrage nu numai un cost moral, ci o penalitate potențial semnificativă dacă autoritățile de reglementare colectează amenzi grele sau dacă clienții boicotează pe amândoi.

De aceea, matematicienii și statisticienii s-au reunit pentru a ajuta întreprinderile și autoritățile de reglementare prin crearea unui nou „Principiul de optimizare non-etică” care să ofere o formulă simplă pentru estimarea impactului deciziilor AI.

În prezent, „Optimizarea poate alege în mod disproporționat multe strategii neetice”, a spus profesorul Robert MacKay de la Institutul de Matematică al Universității din Warwick.

„Principiul sugerează, de asemenea, că poate fi necesar să regândim modul în care AI operează în spații strategice foarte mari, astfel încât rezultatele neetice să fie în mod explicit respinse în procesul de optimizare/învățare.”

Ei au expus toate detaliile într-un document intitulat „Principiul de optimizare non-etică”, publicat în Royal Society Open Science, miercuri, 1 iulie 2020.

„Principiul nostru de optimizare etică poate fi folosit pentru a ajuta autoritățile de reglementare, personalul de conformitate și alte persoane, să găsească strategii problematice care pot fi ascunse”, a spus MacKay.

„Formula ar trebui să arate unde pot apărea probleme și apoi să sugereze modul în care algoritmul de căutare AI ar trebui modificat pentru a le evita în viitor.”

(Sursa: Warwick College)

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.