Inteligenta artificiala si impactul sau asupra umanitatii

0 Shares
0
0
0

Efectele economice pe termen lung ale IA sunt incerte. Un sondaj realizat de economisti a aratat dezacordul cu privire la faptul ca utilizarea tot mai mare a robotilor si a IA va provoca o crestere substantiala a somajului pe termen lung, dar in general sunt de acord ca ar putea fi un beneficiu net, daca se redistribuie castigurile de productivitate.

Un studiu din 2017 realizat de PricewaterhouseCoopers a aratat ca Republica Populara Chineza castiga din punct de vedere economic cel mai mult din AI, cu 26,1% din PIB pana in 2030. O carte alba din Februarie 2020 a Uniunii Europene privind inteligenta artificiala, a sustinut inteligenta artificiala pentru beneficii economice, incluzand „imbunatatirea asistentei medicale (de exemplu, diagnosticarea mai precisa, permiterea unei mai bune preveniri a bolilor), cresterea eficientei agriculturii, contribuirea la atenuarea si adaptarea schimbarilor climatice si imbunatatirea eficientei sistemelor de productie prin intretinere predictiva “, recunoscand in acelasi timp riscurile potentiale.

Relatia dintre automatizare si angajare este complicata. In timp ce automatizarea elimina locurile de munca vechi, creeaza noi locuri de munca prin efecte microeconomice si macroeconomice. Spre deosebire de valurile anterioare de automatizare, multe locuri de munca din clasa de mijloc pot fi eliminate prin inteligenta artificiala; Economistii afirma ca „ingrijorarea pe care AI ar putea sa o aduca pentru unele slujbe, este aceeasi cu cea care a aparut o data cu aparitia motoarelor cu abur in timpul Revolutiei Industriale” si „merita sa fie luata in serios”.

Estimarile subiective ale riscului variaza foarte mult; de exemplu, Michael Osborne si Carl Benedikt Frey estimeaza ca 47% din locurile de munca din SUA prezinta un „risc ridicat” de potentiala automatizare, in timp ce un raport al OECD clasifica doar 9% din locurile de munca din SUA drept „risc ridicat”. Locurile de munca cu risc extrem variaza de la paralegali la bucatarii de fast-food, iar cererea de locuri de munca este probabil sa creasca pentru profesiile legate de ingrijire, de la asistenta medicala personala pana la clerici.

Autorul Martin Ford si altii merg mai departe si sustin ca multe locuri de munca sunt de rutina, repetitive si (pentru o AI) previzibile; Ford avertizeaza ca aceste locuri de munca pot fi automatizate in urmatoarele cateva decenii si ca multe dintre noile locuri de munca pot sa nu fie „accesibile persoanelor cu capacitati medii”, chiar si cu recalificare.

Economistii subliniaza ca, in trecut, tehnologia a avut tendinta de a creste, mai degraba decat de a reduce numarul total de locuri de munca, dar recunosc ca „suntem pe un teritoriu neexplorat” cu AI.

Efectele potentiale negative ale AI si ale automatizarii au fost o problema majora pentru campania prezidentiala a lui Andrew Yang din 2020 in Statele Unite. Irakli Beridze, seful Centrului de Inteligenta Artificiala si Robotica de la UNICRI, Organizatia Natiunilor Unite, a declarat: „cred ca aplicatiile periculoase pentru AI, din punctul meu de vedere, ar fi cele folosite de criminali sau organizatii teroriste care o vor folosi(AI) pentru a face rau.

Teroristii ar putea provoca daune prin razboi digital, sau ar putea fi o combinatie de robotica, drone, cu AI si alte lucruri, care ar putea fi cu adevarat periculoase. Si, desigur, alte riscuri provin de la lucruri precum pierderile locurilor de munca. Daca avem un numar masiv de oameni care pierd locuri de munca si nu gasim o solutie, va fi extrem de periculos. Lucruri precum sistemele de arme autonome letale ar trebui sa fie guvernate in mod corespunzator – altfel exista un potential masiv de abuz. ”

Riscurile AI

Utilizarea pe scara larga a inteligentei artificiale ar putea avea consecinte neintentionate, periculoase sau nedorite. Oamenii de stiinta de la Future of Life Institute, printre altii, au descris cateva obiective de cercetare pe termen scurt pentru a vedea cum influenteaza AI economia, legile si etica care sunt implicate in AI si cum sa minimizeze riscurile de securitate ale AI. Pe termen lung, oamenii de stiinta au propus sa continue optimizarea functiei, reducand in acelasi timp posibilele riscuri de securitate care apar impreuna cu noile tehnologii.

Unii sunt ingrijorati de partinirea algoritmica, de faptul ca programele de IA pot deveni neintentionat partinitoare dupa procesarea datelor care prezinta partinire. Algoritmii au deja numeroase aplicatii in sistemele juridice. Un exemplu in acest sens este COMPAS, un program comercial utilizat pe scara larga de catre instantele americane pentru a evalua probabilitatea ca un inculpat sa devina recidivist. ProPublica sustine ca nivelul mediu al riscului de recidiva atribuit COMPAS pentru inculpatii negri este semnificativ mai mare decat nivelul mediu al riscului atribuit COMPAS pentru inculpatii albi.

ai-nuclear-energy-background-future-innovation-disruptive-technology

Riscurile AI generale

Fizicianul Stephen Hawking, fondatorul Microsoft, Bill Gates, profesorul de istorie Yuval Noah Harari si fondatorul SpaceX, Elon Musk, si-au exprimat ingrijorarea cu privire la posibilitatea ca AI sa evolueze pana la punctul in care oamenii nu ar mai putea sa o controleze, Hawking teoretizand ca acest lucru ar putea „insemna sfarsitul rasei umane”.

Stephen Hawking spunea ca “Dezvoltarea inteligentei artificiale complete ar putea insemna sfarsitul rasei umane. Odata ce oamenii dezvolta inteligenta artificiala, aceasta va decola de la sine si se va reproiecta intr-un ritm din ce in ce mai mare. Oamenii, care sunt limitati de evolutia biologica lenta, nu ar putea concura si ar fi inlocuiti.”

In cartea sa Superinteligenta, filosoful Nick Bostrom ofera un argument conform caruia inteligenta artificiala va reprezenta o amenintare pentru omenire. El sustine ca AI suficient de inteligent, daca alege actiuni bazate pe atingerea unui anumit scop, va prezenta un comportament convergent, cum ar fi achizitionarea de resurse sau protejarea de a fi oprita.

In cazul in care obiectivele acestei AI nu reflecta pe deplin obiectivele umanitatii ar putea dauna pe termen lung, pentru ca va cauta sa obtina mai multe resurse sau va incerca sa impiedice propria oprire, in cele din urma pentru a-si atinge mai bine obiectivul initial. Bostrom subliniaza, de asemenea, dificultatea de a transmite pe deplin valorile umanitatii catre o IA avansata. El foloseste exemplul ipotetic de a oferi unui AI scopul de a-i face pe oameni sa zambeasca pentru a ilustra o incercare gresita.

Daca AI in acest scenariu ar deveni superinteligent, sustine Bostrom, ar putea recurge la metode pe care majoritatea oamenilor le-ar gasi ingrozitoare, cum ar fi inserarea „electrozilor in muschii faciali ai oamenilor pentru a provoca ranjeturi constante si radiante”, deoarece aceasta ar fi o modalitate foarte eficienta de a-si atinge scopul de a-i face pe oameni sa zambeasca. In cartea sa Human Compatible, cercetatorul in domeniul inteligentei artificiale Stuart J. Russell, repeta unele dintre preocuparile lui Bostrom, propunand, de asemenea, o abordare a dezvoltarii unor masini benefice, axate pe incertitudine si deferenta fata de oameni.

Preocuparea cu privire la riscul cauzat de inteligenta artificiala a dus la unele donatii si investitii de profil inalt. Un grup de titani tehnologi proeminenti, inclusiv Peter Thiel, Amazon Web Services si Musk, au donat 1 miliard de dolari catre OpenAI, o companie nonprofit care urmareste promovarea dezvoltarii responsabile a IA. Opinia expertilor din domeniul inteligentei artificiale este mixta, cu fractii considerabile atat preocupate, cat si nepasatoare de riscul aparitiei unei AI super-inteligente.

Alti lideri ai industriei tehnologice considera ca inteligenta artificiala este utila in forma sa actuala si va continua sa ajute oamenii. CEO-ul Oracle, Mark Hurd, a declarat ca AI „va crea de fapt mai multe locuri de munca, nu mai putine locuri de munca”, deoarece oamenii vor fi necesari pentru gestionarea sistemelor de IA. CEO-ul Facebook, Mark Zuckerberg, crede ca AI va “debloca o cantitate imensa de lucruri pozitive”, cum ar fi vindecarea bolilor si cresterea sigurantei masinilor autonome. In Ianuarie 2015, Musk a donat 10 milioane de dolari Institutului Future of Life pentru a finanta cercetarea privind intelegerea procesului decizional AI.

Scopul institutului este de a „creste intelepciunea cu care gestionam” puterea tot mai mare a tehnologiei. Musk finanteaza, de asemenea, companiile care dezvolta inteligenta artificiala, cum ar fi DeepMind si Vicarious.

Pentru ca pericolul AI avansat necontrolat sa fie realizat, IA ipotetica ar trebui sa copleseasca sau sa gandeasca mai mult decat intreaga omenire, despre care o minoritate de experti sustine ca este o posibilitate suficient de indepartata in viitor, pentru a nu merita cercetata.

Reglementari

Reglementarea inteligentei artificiale este dezvoltarea politicilor si legilor din sectorul public pentru promovarea si reglementarea inteligentei artificiale (AI); este, prin urmare, legata de reglementarea mai larga a algoritmilor. Peisajul de reglementare si politici pentru IA este o problema emergenta in jurisdictii la nivel global, inclusiv in Uniunea Europeana.

Regulamentul este considerat necesar atat pentru a incuraja dezvoltarea IA, cat si pentru a gestiona riscurile asociate. Reglementarea IA prin mecanisme precum comitetele de revizuire poate fi, de asemenea, vazuta ca un mijloc social pentru abordarea problemei controlului AI.

Singularitatea tehnologica

Daca cercetarea privind IA a produs software suficient de inteligent, acesta ar putea fi capabil sa se reprogrameze si sa se imbunatateasca. Software-ul s-ar dezvolta prin el insusi, ducand la “auto-imbunatatirea recursiva”. Noua inteligenta ar putea creste astfel exponential si intrece dramatic oamenii.

Scriitorul de science fiction Vernor Vinge a numit acest scenariu „singularitate”. Singularitatea tehnologica se va intampla atunci cand accelerarea progresului in tehnologii va provoca un efect prin care inteligenta artificiala va depasi capacitatea si controlul intelectual al omului, schimband astfel sau chiar terminand civilizatia umana. Deoarece capacitatile unei astfel de inteligente pot fi imposibil de inteles, singularitatea tehnologica este un eveniment dincolo de care evenimentele sunt imprevizibile sau chiar de neinteles.

Ray Kurzweil a folosit legea lui Moore (care descrie neincetata imbunatatire exponentiala a tehnologiei digitale), a calculat ca unele computere desktop vor avea aceeasi putere de procesare ca si creierele umane pana in anul 2029 si prezice ca singularitatea tehnologica va avea loc in 2045.

0 Shares
You May Also Like