Oamenii de știință protestează noul laborator letal de arme AI, lansat la Universitatea din Coreea de Sud

Vă rugăm să împărtășiți această poveste!
Coreea de Sud este o tehnocrație de sus în jos și, astfel, nu există nicio inhibiție de la utilizarea resurselor universitare pentru a dezvolta tehnologii care pot fi utilizate pentru război; în acest caz, este vorba de roboți ucigași autonomi, echipate cu inteligență artificială. ⁃ TN Editor

Universitatea KAIST ar fi lansat un nou laborator de arme AI în februarie, determinând zeci de cercetători să creadă că produsele vor „avea potențialul de a fi arme de teroare”.

oby Walsh, profesor la Universitatea din New South Wales din Sydney, a organizat boicotul cu alți cercetători 49.

El a spus într-o scrisoare deschisă: „Dacă sunt dezvoltate, armele autonome vor ... permite războiului să fie dus mai repede și la o scară mai mare ca niciodată.

„Vor avea potențialul de a fi arme de teroare”.

KAIST a spus că nu are „nicio intenție de a se angaja în dezvoltarea de sisteme letale autonome de arme și roboți ucigași”.

Președintele universității, Sung-Chul Shin, a declarat că universitatea este „în mod semnificativ conștientă” de preocupările etice referitoare la IA.

Ieri, cercetătorii au anunțat un boicot al universității, spunând că se vor abține să viziteze KAIST, să găzduiască vizitatori de la universitate sau să coopereze cu programele sale de cercetare până când se angajează să înceteze dezvoltarea armelor.

Oamenii de știință au adăugat: „Au potențialul de a fi arme de teroare.

„Despotii și teroriștii le-ar putea folosi împotriva populațiilor nevinovate, eliminând orice restricții etice.

„Această cutie Pandora va fi greu de închis dacă este deschisă.”

Profesorul Walsh a recunoscut că există multe bune utilizări ale roboticii și ale inteligenței artificiale în armată.

Oamenii de știință au menționat interdicții eficiente asupra tehnologiilor anterioare ale armelor și au cerut KAIST să interzică orice lucrare asupra armelor letale autonome și să se abțină de la utilizările AI care ar dăuna vieții umane.

El a spus însă că nu ar trebui să poată decide „cine trăiește sau moare”.

Scrisoarea, semnată și de experți de vârf în domeniul învățării profunde și roboticii, a fost publicată înaintea reuniunii de luni viitoare de la Geneva de către țările membre 123 ONU privind provocările pe care le prezintă armele autonome letale, descrise drept „roboți ucigași”.

Citește povestea completă aici ...

Mă abonez
Anunță-mă
oaspete

0 Comentarii
Feedback-uri în linie
Vezi toate comentariile