Experţii de la MIT, în SUA, au compilat peste 700 de moduri prin care inteligența artificială ar putea dăuna umanității

Euronews Next – platforma digitală a Euronews, care acoperă inovarea și noua economie dintr-o perspectivă europeană – a selectat cinci riscuri critice ale inteligenței artificiale (AI) din peste 700 de riscuri compilate într-o nouă bază de date a MIT FutureTech, grup interdisciplinar american care studiază fundamentele progresului în informatică. Pe măsură ce tehnologia inteligenței artificiale (AI) avansează și devine din ce în ce mai integrată în diverse aspecte ale vieții noastre, există o nevoie tot mai mare de a înțelege riscurile potențiale pe care le prezintă aceste sisteme. Recent, grupul FutureTech de la Massachusetts Institute of Technology (MIT) din Statele Unite, în colaborare cu alți experți, a compilat o nouă bază de date cu peste 700 de riscuri potențiale. Acestea au fost clasificate în funcție de cauza lor și au fost categorisite în șapte domenii distincte, principalele preocupări fiind legate de siguranță, prejudecăți și discriminare, precum și de problemele legate de confidențialitate. Cele cinci riscuri majore selectate de Euronews Next sunt: tehnologia deepfake a AI ar putea face mai ușoară denaturarea realității; oamenii ar putea dezvolta un atașament nepotrivit față de AI; AI ar putea lipsi oamenii de liberul lor arbitru; AI ar putea urmări obiective care intră în conflict cu interesele umane; dacă AI devine conștient, oamenii l-ar putea maltrata. De la începuturile sale și de când a devenit mai accesibilă publicului, inteligența artificială a suscitat preocupări generale cu privire la potențialul său de a provoca daune și de a fi utilizată în scopuri răuvoitoare. La începutul adoptării sale, dezvoltarea AI a determinat experți importanți să solicite o pauză în progres și introducerea unor reglementări mai stricte, din cauza potențialului său de a prezenta riscuri semnificative pentru umanitate. De-a lungul timpului, au apărut noi modalități prin care inteligența artificială ar putea provoca prejudicii, de la pornografie deepfake neconsensuală şi manipularea proceselor politice până la generarea de dezinformări din cauza halucinațiilor. (EURONEWS – 1 septembrie)/mbaciu/rcostea