Read it Later
You did not follow anybody yet.

De curând, un grup de directori de top din domeniul tehnologic, printre care și Elon Musk, au semnat o scrisoare deschisă prin care cer o pauză de 6 luni în toate cercetările privind inteligența artificială. Dar asta nu a fost suficient pentru teoreticianul inteligenței artificiale Eliezer Yudkowsky. Într-un articol pentru revista TIME, el a argumentat că „Trebuie să o oprim totul”, adăugând:

“Mulți cercetători (printre care și eu) care au analizat problemele ridicate au concluzionat că cel mai probabil rezultat al construirii unui AI supraomenesc de inteligent va fi moartea tuturor locuitorilor planetei. Nu este ‘o șansă slabă ca acest lucru să se întâmple’, ci este ‘evident că acest lucru se va întâmpla.’”

 

Folosind un ton plin de panică, Yudkowsky a sugerat chiar că țări ca SUA ar trebui să fie dispuse să riște un război nuclear “dacă acest lucru este necesar pentru a reduce riscul proceselor vaste de învățare ale AI.”

 

Mulți experți susțin că stadiul actual al inteligenței artificiale seamănă mai mult cu stocarea puterii atomului pentru prima dată decât seamănă cu upgrade-ul la ultimul iPhone. Pe când computerele din trecut doar clasificau date, ultimele versiuni de AI au abilitatea de a înțelege contextul cuvintelor pe măsură ce milioane de oameni le folosesc, și astfel sunt capabile să rezolve probleme, să prezică rezultate viitoare, să-și mărească aria cunoștințelor și chiar să ia măsuri.

 

Posibilitatile, sugerează acești critici, nu sunt limitate doar la “trezirea” AI și căpătarea de conștiență. Un experiment binecunoscut, așa-numitul “Paperclip Maximizer”, explică un scenariu în care unui AI puternic îi este dată sarcina simplă de “a crea atât de multe agrafe pentru hârtie pe cât este posibil” fără a avea nicio limită etică. AI ar putea decide, pentru a performa în cel mai eficient mod, să ne blocheze accesul la internet, să preia controlul asupra industriilor și să folosească resursele pământului doar pentru acel scop. Dacă nu ar ști imediat cum să facă aceste lucruri, ar putea învăța, lucrând pentru scopul de a maximiza producția de agrafe de hârtie în detrimentul oricărei forme de viață de pe pământ. Este un scenariu care pare atât înfricoșător, dar și posibil într-o era în care internetul este peste tot, industrii întregi sunt automatizate și companiile se grăbesc să dezvolte inteligența artificială care este din ce în mai puternica.

 

Adevăratul pericol ridicat de AI nu este potențialul său. Este lipsa de etică. Când știința și tehnologia noastră este ghidată de dictonul “dacă putem face ceva, atunci ar trebui” care arată rațiunea noastră morală, mai mult și mai repede nu înseamnă mai bine. Cu câțiva ani în urmă, teologul și eticianul Peter Kreeft a arătat ce înseamnă atunci când tehnologia depășește etica: “Chiar în momentul în care jucăriile noastre au crescut odată cu noi, din arcuri și săgeți la bombe termonucleare, am devenit copii moral.”

 

Întrebările despre bine și rău și despre ce înseamnă să fii om sunt indispensabile eticii AI. Proiectată cu răutate sau neatenție, capacitatea distructivă a tehnologiei noastre nu este dovada defectelor acesteia, ci alor noastre. Așa cum a scris Dr. Kreeft, tehnologia de felul armelor termonucleare realizează ceva „ce toți moraliștii, predicatorii, profeții, sfinții și înțelepții din istorie nu au putut face: au făcut din virtute o necesitate pentru supraviețuire.”

 

În același timp, creștinii nu trebuie să alunece în fatalism. Pentru ateii ca Eliezer Yudkowsky, amenințarea extincției datorită unei rase superioare de ființe conștiente este posibilă și chiar inevitabilă. Dacă realitatea înseamnă supraviețuirea celui mai puternic și mai adaptat, după cum susține naturalismul, atunci AI pare perfect potrivit să ia locul umanității în vârful ierarhiei. În absența unei definiții mai bune pentru “umanitate” decât inteligența brută și abilitatea, AI este un nou și potențial violent Übermensch, destinat să înlocuiască umanitatea.

 

Creștinii știu că nu acesta este sfârșitul poveștii. Deși suntem capabili de fapte inimaginabile, Cineva mai mare decât noi este la cârma istoriei. Creștinismul poate ancora tehnologia atât etic, cât și teleologic. AI nu este nicio o aberație care trebuie abandonată, nici o utopie care trebuie căutată cu orice preț. Mai degrabă, la fel ca orice altă tehnologie, este o unealtă potentă care trebuie controlată de un cadru etic comun și de o viziune corectă a valorii, demnității și excepționalității umane.

 

Bineînțeles, această viziune este adevărată doar în cazul în care am fost creați de Cineva cu o inteligență, dragoste și înțelepciune superioară.  



John Stonestreet, Kasey Leander – Breakpoint


Read it Later

Donează online și susține Edictum Dei.

Donează

Lasă un răspuns

Your email address will not be published. Required fields are marked *

Post comment

Go to Top
Add Comment
Loading...

Post comment

Cancel
Viewing Highlight
Loading...
Highlight
Close