Teknologia honen garapenak dituen abantailez eta arriskuez ohartuta, adimen artifizialaren inguruan aritzen diren agente guztiek partekatutako erantzukizuna izan behar dutela proposatu dute zientzialariek.
Aitortu beharra dago: kazetariok robot hiltzaileak maite ditugu. Irakurlearen arreta eskuratzea gero eta zailagoa den honetan, horrelako izateen inguruan hitz egiteak berehalako arrakasta dakar. Eta informazioaz mozkortuta bizi den gizarte batean, hainbat minutuko arreta erakartzea ez da batere erraza.
Baina ez da “hiltzaile” kategoriara iritsi behar ezinegona sortzeko. Noizean behin, Boston Dinamics bezalako enpresen aurrerapenen berri ematen dituzten bideoek miresmena eta kezka eragin ohi dituzte, aldi berean. Animalien edo gizakien itxura hartzen duten robotak hain jarduera “arruntetan” ikusi izanak bereziki eragin dezake kezka, uncanny valley edo haran beldurgarriaren ideia garatu dutenek ondo dakiten moduan.
Lasai, adimen horiek izugarri aurreratuko balira ere, ez omen dira maltzur bihurtuko. Baina, antza, horrek ez du arazoa konpontzen. “Makinak maltzur bihurtuko direneko beldurrak ez gaitu kezkatu behar”, dio Life 3.0 liburuan, Max Tegmark Future of Life Institutuko fundatzaileetako batek. “Benetan kezkagarria dena ez da maltzurkeria, lehia baizik. Definizioaz, adimen artifizial superadimentsu bat oso trebea da bere helburuak lortzeko orduan, helburu horiek direnak direla, eta horregatik gure kezka izan behar da helburu horiek geure helburuekin talka egin ez dezatela”.
Inurriekin alderatu du egoera Tegmarkek: normalean gizakiok ez ditugu nahita inurriak zapaltzen, baina zentral hidroelektriko bat zabaltzeko eskualde bat ureztatu behar badugu, ez dugu kezka handirik sentituko inurri horien patua dela eta. “Adimen artifizial onuragarri baten aldeko mugimenduak ekidin nahi du gizakiak inurri horien lekua hartzea”, laburtu du fisikariak.
Hortaz, adimen artifizialaren arriskuak ekidin eta onurak eskuratu nahi dituzte adituek. Izan ere, arriskuez gain, onura asko eta asko badira, noski, eta seguruenera pentsaezinak izango dira bidean egon daitezkeenak.
Eta ez gara soilik robotez ari, askoz harago doalako adimen artifiziala. Bestalde, Tegmark ez da konspiranoiko bat, eta berak bezala, beste aditu askok adimen artifizialari buruzko eztabaida baten beharra azpimarratu dute. Norabide horretan arlo akademikotik etorri den azken ekarpena Science aldizkarian idatzitako editorial batean, Alan Turing Institutuko (Oxfordeko Unibertsitatea) Maria Rosaria Taddeo eta Luciano Floridi adituek proposatutakoa da. Ontasuna helburu duen adimen artifizialaren erabilpenak nazioarteko kooperazioaren beharra izango duela argudiatu dute bertan.
Arautzearen beharra izango duen teknologia batetik baino askoz harago, “gure inguruak, elkarrekintza pertsonal eta profesionalak eta eguneroko praktikak aldatuko dituen indar boteretsutzat” jo dute adimen artifiziala.
Aurrean dauden erronken artean, gizakiaren autodeterminazioaren babesa bereziki premiazkoa dela defendatu dute. Internet bitartez kontsumitzaileen profila eskuratzeko eta osatzeko teknikak, eta horiei esker burutu ahal izan diren manipulazio kanpainak jarri dituzte horren adibide, Cambridge Analytica-ren eskandaluaren auzia aipatuz.
Baina arazoa ez da horretara mugatzen: gizarte osoan du eragina dagoeneko. “Adimen artifizialeko aplikazioak limurtzaile bihurtzen ari dira. Erabiltzeak haietan jartzen dute konfiantza ataza asko egiteko, ondasunak eskatzeko edota nazio segurtasuna bermatzeko”, diote editorialean.
Halere, arriskuen inguruan hitz egiteak ohi dakarren diskurtso teknofobikoa ekidin nahian edo, dauden onuren adibide zehatzak eskaini dituzte ere. Horietako bat erabat adierazgarria da: bularretako minbizia diagnostikatzeko akatsak %85 txikitu dira horrelako teknikei esker.
Onurak aitortuta, arazoei ekin diete. Besteak beste, adimen artifizialak hartzen dituen erabakiak azaltzeko eta horiei aurrea aztertzeko beharra azpimarratu dute. Norabide horretan, AEBtako DARPA erakunde militarrak abiarazitako proiektu bat aipatu dute (duda zalantzarik gabe, garapen teknologikorako munduan den agentzia nagusienak, aurrekontuei dagokionean bederen). Explainable Artificial Intelligence (azaldu daitekeen adimen artifiziala) programaren helburua da makinen erabakiak azalduko dituzten azalpen teknikak garatzea.
Partekatutako erantzukizuna
Gaiaren alde etikoei ekin diete, eta partekatutako erantzukizunak ezartzen dituzten sistemen alde azaldu dira. Halako sistemek erakunde edo egitura oso batean jartzen dute ardura: guztiok prest egon behar dute erantzukizunez jarduteko, arazoren bat izatekotan, errua guztiontzako baita. Modu horretan, delituaren paradoxa famatua alboratuko zen. Adimen batek delituren bat eginez gero, norena da errua? Diseinatzailearena, fabrikatzailearena, saltzailearena ala jabearena? Proposatutako eskeman, modu batean edo bestean, guztiok izango lirateke erantzule. Alabaina, ikusteko dago halako proposamen teoriko bat nola gauzatuko litzatekeen mundu errealean.
Arautze etikoa “konplexua” baina “beharrezkoa” dela azpimarratu dute. Eta hori egin ezean, arazoak suerta daitezkeela onetsi dute. Ohi bezala, iraganeko adibideei joatea besterik ez dago. “Gizateriak modu gogorrean ikasi zuen ikasgai hau industria iraultzak lan indarretan izango zituen eraginak arautu ez zituenean, eta baita ere industrializazio masiboaren eta kontsumismo globalaren ingurumen eragina azken momenturaino aintzat hartu ez zuenean”. Horrelako adibideen aurrean, irakaspen garbia atera dute: “Adimen artifizialaren iraultza aipatutako aldaketa horiek bezain esanguratsua da, eta gizateriak ez luke akats berdina egin behar”.
Erreferentzia bibliografikoa
Tadeo, Mariarosaria and Floridi, Luciano, (2018). How AI can be a force for good. Science 361 (6404), 751-752. DOI: 10.1126/science.aat5991
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
2 iruzkinak
[…] Gaur egun bizi dugun industria iraultzan, egokitzapen arazo horiek ebazteko –bai ekoizpen lerroena, bai lerroen funtzionamenduarena–, gizarteak eskatzen dituen produktu teknologikoki sofistikatuak, eta, gainera, prezio onean, fabrikatzeko, nekatzen ez den eta arazo pertsonalik ez duen adimena erabili behar da […]
[…] oso ahaltsuak eta konputazio-denbora luzea”, azaldu du Fernández Gámizek. Baina azken urteotan, Adimen Artifizialaren hazkundearekin, gero eta gehiago erabiltzen dira sare neuronalak fluxu-ezaugarriak iragartzeko; […]