Adimen artifizialak abiadura, eskala eta noizbehinkako magia agintzen ditu. Baina distirak itsutu egin dezake. Zergatik da IA txarra gizartearentzat? , gida honek kalte handienak azaltzen ditu hizkuntza arruntean, adibideekin, konponbideekin eta egia deseroso batzuekin. Ez da teknologiaren aurkakoa. Errealitatearen aldekoa da.
Honen ondoren irakurri nahi izango dituzun artikuluak:
🔗 Zenbat ur erabiltzen du IAk
IAren ur-kontsumo harrigarria eta zergatik den garrantzitsua globalki azaltzen du.
🔗 Zer da IA datu-multzo bat?
Datu-multzoen egitura, iturriak eta entrenamendu-ereduetarako garrantzia aztertzen ditu.
🔗 Nola aurreikusten du IAk joerak
Algoritmoek emaitzak zehatz-mehatz aurreikusteko ereduak nola aztertzen dituzten erakusten du.
🔗 Nola neurtu IAren errendimendua
Modeloaren zehaztasuna, abiadura eta fidagarritasuna ebaluatzeko funtsezko neurriak biltzen ditu.
Erantzun azkarra: Zergatik da IA txarra gizartearentzat? ⚠️
Zeren eta babes-hesi sendorik gabe, IAk alborapena anplifikatu dezake, informazio-espazioak gezurrezko irudi sinesgarriekin gainezka egin, zaintza areagotu, langileak birziklatzen ditugun baino azkarrago lekualdatu, energia- eta ur-sistemak tentsioan jarri eta ikuskatzeko edo errekurritzeko zailak diren erabaki garrantzitsuak har ditzake. Arau-erakunde eta erregulatzaile nagusiek arrisku horiek arrazoi batengatik salatzen dituzte. [1][2][5]
Anekdota (konposatua): Eskualdeko mailegu-emaile batek IA bidezko mailegu-sailkapen tresna bat probatzen du. Prozesatzeko abiadura handitzen du, baina berrikuspen independente batek aurkitu du ereduak ez duela emaitza onik ematen posta-kode jakin batzuetako eskatzaileentzat, redline historikoari lotuta. Konponketa ez da ohar bat - datuen lana, politika lana eta produktuen lana baizik. Eredu hori behin eta berriz agertzen da artikulu honetan.
Zergatik da IA txarra gizartearentzat? Argudio onak ✅
Kritika onek hiru gauza egiten dituzte:
-
Kaltearen edo arrisku handiagoaren froga erreproduzigarrietara jo
-
Erakutsi egitura-dinamikak, hala nola sistema-mailako mehatxu-ereduak eta erabilera okerreko pizgarriak, ez istripu puntualak soilik. [2]
-
Gobernantza-tresnekin (arriskuen kudeaketa, auditoriak, sektoreko gidalerroak) bat datozen arintze-neurri zehatzak eskaini
Badakit, arrazoizkoa dirudiela, baina hori da muga.

Kalteak, deskonprimituta
1) Alborapena, diskriminazioa eta erabaki bidegabeak 🧭
Algoritmoek pertsonak puntuatu, sailkatu eta etiketatu ditzakete datu okerrak edo diseinu akastuna islatuz. Arau-erakundeek esplizituki ohartarazten dute kudeatu gabeko IA arriskuak -bidezkoak, azalgarritasunak, pribatutasunak- benetako kalte bihurtzen direla neurketa, dokumentazioa eta gobernantza saltatzen badituzu. [1]
Zergatik den gizartearentzat txarra: eskala handiko tresna alboratuak isilean kontrolatzen dituzte kreditua, lanpostuak, etxebizitza eta osasun-laguntza. Probak, dokumentazioak eta auditoria independenteek laguntzen dute, baina benetan egiten baditugu bakarrik. [1]
2) Desinformazioa, deepfake-ak eta errealitatearen higadura 🌀
Orain merkea da audioa, bideoa eta testua errealismo harrigarriarekin fabrikatzea. Zibersegurtasun txostenek aurkariek aktiboki erabiltzen dituztela erakusten dute euskarri sintetikoak eta modelo mailako erasoak konfiantza higatzeko eta iruzurra eta eragin eragiketak sustatzeko. [2]
Zergatik den gizartearentzat txarra: konfiantza erortzen da edonork edozein klipa faltsua edo erreala dela esan dezakeenean, komenientziaren arabera. Komunikabideen alfabetatzeak laguntzen du, baina edukiaren benetakotasun-arauak eta plataforma arteko koordinazioa garrantzitsuagoak dira. [2]
3) Zaintza masiboa eta pribatutasunaren presioa 🕵️♀️
Adimen artifizialak populazio-mailako jarraipenaren kostua murrizten du: aurpegiak, ahotsak, bizi-ereduak. Mehatxu-paisaiaren ebaluazioek datu-fusioaren eta ereduetan lagundutako analisien erabilera gero eta handiagoa adierazten dute, eta horiek sentsore sakabanatuak zaintza-sistema bihur ditzakete kontrolatzen ez badira. [2]
Zergatik den gizartearentzat txarra: hizkeran eta elkartean dituen efektu hotzak zailak dira ikusten, hemen egon arte. Gainbegiratzea aurretik joan , ez kilometro bateko atzetik. [2]
4) Lanpostuak, soldatak eta desberdintasuna 🧑🏭→🤖
Adimen artifizialak produktibitatea handitu dezake, noski, baina esposizioa ez da berdina. Enpresaburuen eta langileen herrialde arteko inkestek goranzko eta etenaldiko arriskuak aurkitzen dituzte, zeregin eta lanbide batzuk beste batzuk baino esposizio handiagoarekin. Trebetasunak hobetzeak laguntzen du, baina trantsizioek etxe errealetan eragiten dute denbora errealean. [3]
Zergatik den gizartearentzat txarra: produktibitatearen irabaziak enpresa edo aktiboen jabe gutxi batzuei gehitzen badizkiegu batez ere, desberdintasuna handitzen dugu, gainerako guztiei sorbalda keinu adeitsua eskainiz. [3]
5) Zibersegurtasuna eta ereduen ustiapena 🧨
Adimen artifizialaren sistemek eraso-azalera zabaltzen dute: datuen pozoitzea, berehalako injekzioa, modeloen lapurreta eta hornikuntza-kateko ahultasunak adimen artifizialaren aplikazioen inguruko tresnetan. Europako mehatxuen txostenek euskarri sintetikoen benetako gehiegikeria, jailbreak-ak eta pozoitze-kanpainak dokumentatzen dituzte. [2]
Zergatik den gizartearentzat txarra: gaztelua zaintzen duen gauza zubi altxagarri berria bihurtzen denean. Aplikatu diseinutik segurua eta gogortzea IA hodietan - ez bakarrik aplikazio tradizionaletan. [2]
6) Energia, ura eta ingurumen kostuak 🌍💧
Modelo handien entrenamenduak eta hornidurak elektrizitate eta ur asko kontsumitu ditzake datu-zentroen bidez. Nazioarteko energia-analistek eskariaren hazkunde azkarra jarraitzen dute orain eta sarean eraginez ohartarazten dute IAren lan-kargak handitzen diren heinean. Plangintza da helburua, ez izua. [4]
Zergatik den gizartearentzat txarra: azpiegitura ikusezinaren estresa faktura altuagoetan, sare elektrikoaren pilaketetan eta kokapen-borroketan agertzen da, askotan eragin txikiagoa duten komunitateetan. [4]
7) Osasun-arloko eta beste erabaki garrantzitsu batzuk 🩺
Munduko osasun-agintariek segurtasun, azalpen, erantzukizun eta datuen gobernantza arazoak salatzen dituzte IA klinikoarentzat. Datu-multzoak nahasiak dira; akatsak garestiak dira; gainbegiratzea maila klinikokoa izan behar da. [5]
Zergatik den gizartearentzat txarra: algoritmoaren konfiantza gaitasun itxura izan dezake. Ez da. Babes-hesiek errealitate medikoak islatu behar dituzte, ez manifestazioen giroa. [5]
Konparazio taula: kalteak murrizteko tresna praktikoak
(bai, izenburuak nahita bitxiak dira)
| Tresna edo politika | Publikoa | Prezioa | Zergatik funtzionatzen duen... nolabait |
|---|---|---|---|
| NIST AI Arriskuen Kudeaketa Esparrua | Produktu, segurtasun eta zuzendaritza taldeak | Denbora + auditoriak | Arrisku, bizi-zikloko kontrol eta gobernantza-euskarrietarako hizkuntza partekatua. Ez da makila magiko bat. [1] |
| Eredu-ikuskapen independenteak eta talde gorria | Plataformak, startup-ak, agentziak | Ertainetik altuera | Erabiltzaileek baino lehenago aurkitzen ditu jokabide arriskutsuak eta hutsegiteak. Sinesgarria izateko independentzia behar du. [2] |
| Datuen jatorria eta edukiaren benetakotasuna | Komunikabideak, plataformak, tresna-egileek | Tresneria + eragiketak | Iturriak aurkitzen eta faltsukeriak ekosistema guztietan eskala handian markatzen laguntzen du. Ez da perfektua; hala ere lagungarria. [2] |
| Langileen trantsizio planak | Giza Baliabideak, Hezkuntza eta Garapena, politikariak | Birziklatzea $$ | Trebetasunen hobekuntza eta zereginen birdiseinu zuzendua; rol agerikoetan lekualdatze latza; emaitzak neurtu, ez leloak. [3] |
| Osasun sektoreko gidalerroak | Ospitaleak, erregulatzaileak | Politikaren ordua | Hedapena etikarekin, segurtasunarekin eta baliozkotze klinikoarekin lerrokatzen du. Pazienteak lehenesten ditu. [5] |
Sakonera: nola sartzen den alborapena benetan 🧪
-
Datu okerrak – erregistro historikoek iraganeko diskriminazioa txertatzen dute; ereduek islatzen dute, neurtu eta arindu ezean. [1]
-
Testuinguru aldakorrak – populazio batean funtzionatzen duen eredu bat beste batean hautsi daiteke; gobernantzak esparrua zehaztea eta etengabeko ebaluazioa eskatzen ditu. [1]
-
Proxy aldagaiak – babestutako atributuak kentzea ez da nahikoa; ezaugarri korrelazionatuek berriro sartzen dituzte. [1]
Mugimendu praktikoak: datu-multzoak dokumentatu, inpaktu-ebaluazioak egin, taldeen arteko emaitzak neurtu eta emaitzak argitaratu. Azalean defendatuko ez bazenu, ez bidali. [1]
Azterketa sakona: zergatik den desinformazioa hain itsaskorra IArekin 🧲
-
Abiadura + pertsonalizazioa = mikrokomunitateak helburu dituzten faltsuak.
-
Ziurgabetasunaren ustiapenak – dena daitekeenean , egile gaiztoek zalantza ereitea besterik ez dute behar.
-
Egiaztapen-atzerapena – jatorri-arauak ez dira oraindik unibertsalak; benetako komunikabideek lasterketa galtzen dute plataformek koordinatzen ez badute. [2]
Azterketa sakona: azpiegituren faktura ordaindu behar da 🧱
-
Energia – Adimen artifizialaren lan-kargek datu-zentroen elektrizitate-kontsumoa handitzen dute; aurreikuspenek hamarkada honetan hazkunde handia erakusten dute. [4]
-
Ura hozteko beharrek tokiko sistemak tentsio handia sortzen dute, batzuetan lehorte joera duten eskualdeetan.
-
Kokapenaren inguruko borrokak – komunitateek atzera egiten dute kostuak alde onik gabe lortzen dituztenean.
Arintzeak: eraginkortasuna, eredu txikiagoak/argalagoak, ordu puntatik kanpo inferentzia, energia berriztagarrien ondoan kokatzea, uraren erabileraren gardentasuna. Esatea erraza, egitea zailagoa. [4]
Titularra nahi ez duten buruzagientzako kontrol-zerrenda taktikoa 🧰
-
Erabiltzen diren sistemen erregistro bizi bati lotutako IA arriskuen ebaluazio bat egin
-
Ezarri edukien benetakotasun teknologia eta gertaeren eskuliburuak zure erakundeari zuzendutako deepfake-etarako. [2]
-
Sustatu auditoria independenteak eta talde gorrien lankidetza sistema kritikoetarako. Pertsonen inguruan erabakitzen badu, azterketa merezi du. [2]
-
Osasun-erabilera kasuetan, jarraitu sektoreko jarraibideak eta azpimarratu baliozkotze klinikoa, ez demo erreferentziak. [5]
-
Parekatu hedapena zereginen birdiseinuarekin eta trebetasunen hobekuntzarekin , hiruhilekoan neurtuta. [3]
Maiz egiten diren bultzada-erantzunak 🙋♀️
-
Ez al da ona IA ere? Noski. Galdera honek huts egiteko moduak isolatzen ditu, konpondu ahal izateko.
-
Ezin al dugu gardentasuna gehitu besterik gabe? Lagungarria da, baina ez da nahikoa. Probak, jarraipena eta erantzukizuna behar dituzu. [1]
-
Erregulazioak berrikuntza hilko al du? Arau argiek ziurgabetasuna murrizten eta inbertsioa desblokeatzen dute. Arriskuen kudeaketa esparruak, hain zuzen ere, nola eraiki buruzkoak dira. [1]
TL;DR eta azken gogoetak 🧩
Zergatik da IA txarra gizartearentzat? Eskala + opakutasuna + pizgarri deslerrokatuak = arriskua delako. Bere kabuz utzita, IAk alborapena indartu, konfiantza higatu, zaintza elikatu, baliabideak agortu eta gizakiek errekurritu ahal izan beharko lituzketen gauzak erabaki ditzake. Beste aldea: dagoeneko badugu eskailera-euskarria arrisku-esparru, auditoria, benetakotasun-estandar eta sektore-gidalerro hobeak egiteko. Ez da balaztak zapaltzea. Balaztak instalatzea, direkzioa egiaztatzea eta autoan benetako pertsonak daudela gogoratzea da kontua. [1][2][5]
Erreferentziak
-
NIST – Adimen Artifizialeko Arriskuen Kudeaketa Esparrua (AI RMF 1.0). Esteka
-
ENISA – 2025eko mehatxuen paisaia. Esteka
-
ELGA – IAren eragina lantokian: ELGAk enpresaburu eta langileei egindako IA inkestetatik lortutako emaitza nagusiak . Esteka
-
IEA – Energia eta Adimen Artifiziala (elektrizitatearen eskaria eta aurreikuspenak). Esteka
-
Osasunaren Mundu Erakundea – Osasunerako adimen artifizialaren etika eta gobernantza . Esteka
Oharrak irismenari eta orekari buruz: ELGAren aurkikuntzak sektore/herrialde espezifikoetan egindako inkestetan oinarritzen dira; testuinguru hori kontuan hartuta interpretatu. ENISAren ebaluazioak EBren mehatxuen irudia islatzen du, baina mundu mailan garrantzitsuak diren ereduak nabarmentzen ditu. IEAren aurreikuspenak proiekzio modelatuak eskaintzen ditu, ez ziurtasunak; plangintza-seinale bat da, ez profezia bat.