Erantzun laburra: IA gehiegi egin du erabaki garrantzitsuetan, zaintzan edo pertsuasioan mugarik gabe, baimen informaturik eta benetako helegite eskubiderik gabe erabiltzen denean. Berriro ere muga gainditzen du deepfake-ek eta iruzur eskalagarriek konfiantza apustu bat bezala sentiarazten dutenean. Jendeak ezin badu esan IAk zeresana izan duen, ezin badu ulertu zergatik erabaki bat horrela amaitu den, edo ezin badu baztertu, dagoeneko gehiegi da.
Ondorio nagusiak:
Mugak: Sistemak egin ezin duena definitzen dute, batez ere ziurgabetasuna handia denean.
Erantzukizuna: Ziurtatu gizakiek emaitzak zigorrik edo denbora-presioko tranparik gabe baliogabetu ditzaketela.
Gardentasuna: Esan jendeari noiz dagoen IA inplikatuta eta zergatik hartu dituen erabakiak.
Lehiakortasuna: Helegite bide azkar eta bideragarriak eta datu okerrak zuzentzeko modu argiak eskaintzea.
Erabilera okerraren aurkako erresistentzia: Gehitu jatorria, tasa mugak eta kontrolak iruzurrak eta gehiegikeriak mugatzeko.
"Adimen artifiziala gehiegi aurreratu al da?"
Bitxia da mugak gainditzea ez dela beti agerikoa. Batzuetan ozen eta deigarria da, deepfake iruzur bat bezala. ( FTC , FBI ) Beste batzuetan isila da - zure bizitza azalpenik gabe albo batera bultzatzen duen erabaki automatizatu bat, eta ez zara konturatzen ere "puntuatu" zaituztela. ( UK ICO , GDPR 22. art. )
Beraz... IA gehiegi joan al da? Leku batzuetan, bai. Beste leku batzuetan, ez da nahikoa joan - tresnak tresnak bezala jokatzen duten segurtasun-barrak gabe erabiltzen ari delako, UI atsegina duten erruleta-gurpilen ordez. 🎰🙂 ( NIST AI RMF 1.0 , EBko IA Legea )
Honen ondoren irakurri nahi izango dituzun artikuluak:
🔗 Zergatik izan daiteke IA kaltegarria gizartearentzat
Gizarte-arrisku nagusiak: alborapena, lanpostuak, pribatutasuna eta botere-kontzentrazioa.
🔗 Adimen artifiziala txarra al da ingurumenarentzat? Ezkutuko eraginak
Nola igotzen dituzten isuriak prestakuntzak, datu-zentroek eta energia-erabilerak.
🔗 IA ona ala txarra da? Alde onak eta txarrak
Onuren, arriskuen eta benetako munduko konpentsazioen ikuspegi orekatua.
🔗 Zergatik jotzen den IA txarra: alde iluna
Erabilera okerra, manipulazioa, segurtasun-mehatxuak eta kezka etikoak aztertzen ditu.
Zer esan nahi du jendeak “Adimen Artifiziala gehiegi urrundu al da?” galdetzen duenean 😬
Jende gehienak ez du galdetzen ea IA "sentikorra" den edo "kontrola hartzen" duen. Hauetako bati seinalatzen ari dira:
-
Adimen artifiziala erabili behar ez litzatekeen lekuetan erabiltzen ari da. (Arrisku handiko erabakiak, batez ere.) ( EBko Adimen Artifizialaren Legearen III. eranskina , GDPRren 22. art .)
-
Adimen artifiziala baimenik gabe erabiltzen ari da. (Zure datuak, zure ahotsa, zure aurpegia... harrigarria.) ( Erresuma Batuko ICO , GDPR 5. art .)
-
Adimen artifiziala (IA) gehiegi trebea bihurtzen ari da arreta manipulatzeko. (Jarioak + pertsonalizazioa + automatizazioa = itsaskorra.) ( OECDko IA Printzipioak )
-
Adimen artifizialak egia aukerakoa dela sentiarazten ari da. (Deepfake-ak, iritzi faltsuak, "aditu" sintetikoak.) ( Europako Batzordea , FTC , C2PA )
-
Adimen artifiziala boterea kontzentratzen ari da. (Sistema gutxi batzuek moldatzen dute denek ikusten eta egin dezaketena.) ( UK CMA )
“Adimen Artifiziala gehiegi joan al da?” galderaren muina . Ez da une bakar bat. Pizgarrien, lasterbideen eta “geroago konponduko dugu” pentsamenduen pilaketa bat da; egia esan, “norbait min hartu ondoren konponduko dugu” esan nahi duena. 😑

Egia ez hain sekretua: IA biderkatzailea da, ez eragile morala 🔧✨
Adimen artifiziala ez da esnatzen eta kaltegarria izatea erabakitzen. Jendeak eta erakundeek hura apuntatzen dute. Baina elikatzen diozun edozer gauza biderkatzen du:
-
Asmo lagungarria izugarri lagungarria (itzulpena, irisgarritasuna, laburpena, eredu medikoak detektatzea).
-
Asmo arduragabea izugarri arduragabea (alborapena eskala handian, erroreen automatizazioa).
-
Asmo txarra izugarri txarra (iruzurra, jazarpena, propaganda, pertsonatzearen imitazioa).
Haur txiki bati megafono bat ematea bezala da. Batzuetan, haur txikiak abesten du… batzuetan, haur txikiak zuzenean zure arimara oihu egiten du. Ez da metafora perfektua - pixka bat tontoa - baina ideia nagusia ondo doa 😅📢.
Zerk egiten du IAren bertsio ona eguneroko inguruneetan? ✅🤝
IAren “bertsio ona” ez da bere adimenaren arabera definitzen. Presiopean, ziurgabetasunean eta tentaziopean duen portaeraren arabera definitzen da (eta gizakiak oso tentatuta daude automatizazio merkearekin). ( NIST AI RMF 1.0 , OCDE )
Hona hemen norbaitek bere IA erabilera arduratsua dela dioenean bilatzen dudana:
1) Muga argiak
-
Zer egiteko baimena du sistemak?
-
Zer dago espresuki debekatuta egitea?
-
Zer gertatzen da ziurgabetasuna dagoenean?
2) Giza erantzukizun erreala, ez apaingarria
Giza batek emaitzak “berrikustea” bakarrik axola du honako kasu hauetan:
-
ulertzen dute zer berrikusten ari diren, eta
-
gauzak moteltzeagatik zigortu gabe baliogabetu dezakete.
3) Azalpengarritasuna maila egokian
Ez du denek matematika behar. Jendeak bai behar du:
-
erabaki baten atzean dauden arrazoi nagusiak,
-
zer datu erabili ziren,
-
nola helegitea jarri, zuzendu edo uko egin. ( Erresuma Batuko ICO )
4) Neurgarria den errendimendua - hutsegite moduak barne
Ez bakarrik “zehaztasuna”, baizik eta:
-
norengan huts egiten duen,
-
zenbatetan huts egiten duen isilean,
-
Zer gertatzen da mundua aldatzen denean. ( NIST AI RMF 1.0 )
5) Pribatutasuna eta baimena “ezarpenetan ezkutatuta” ez daudenak
Baimenak menuen bidez altxor-bilaketa bat eskatzen badu... ez da baimena. Urrats gehigarriak dituen ihesbide bat da 😐🧾. ( GDPR 5. art. , Erresuma Batuko ICO )
Konparazio taula: IA gehiegi urrutira joatea eragozteko modu praktikoak 🧰📊
Jarraian "aukera nagusiak" daude, emaitzak (ez bibrazioak bakarrik) aldatzen dituzten ohiko babes-hesiak edo tresna operatiboak direlako.
| Tresna / aukera | Publikoa | Prezioa | Zergatik funtzionatzen duen |
|---|---|---|---|
| Gizakiaren ikuspegiaren berrikuspena ( EBko IA Legea ) | Taldeek arrisku handiko deiak egiten dituzte | ££ (denbora kostua) | Automatizazio txarra moteltzen du. Gainera, gizakiek kasu arraroak nabaritu ditzakete batzuetan… |
| Erabakien aurkako helegite-prozesua ( GDPR 22. art. ) | IAren erabakiek eragindako erabiltzaileak | Doako itxurakoa | Prozesu egokia gehitzen du. Jendeak datu okerrak zuzendu ditzake - oinarrizkoa dirudi oinarrizkoa delako |
| Auditoria-erregistroak + trazabilitatea ( NIST SP 800-53 ) | Betetzea, eragiketak, segurtasuna | £-££ | Porrot baten ondoren "zer gertatu da?" erantzuteko aukera ematen dizu, sorbaldak jaso beharrean |
| Modeloaren ebaluazioa + alborapen-probak ( NIST AI RMF 1.0 ) | Produktu + arrisku taldeak | asko aldatzen da | Aurreikus daitezkeen kalteak goiz antzematen ditu. Ez da perfektua, baina asmatzea baino hobea da |
| Talde gorriaren probak ( NIST GenAI profila ) | Segurtasun + segurtasuneko jendea | £££ | Benetako erasotzaileek egin aurretik gaizki erabiltzea simulatzen du. Desatsegina, baina merezi du 😬 |
| Datuen minimizazioa ( Erresuma Batuko ICO ) | Denok, egia esan | £ | Datu gutxiago = nahasmendu gutxiago. Gainera, urraketa gutxiago, elkarrizketa deseroso gutxiago |
| Edukiaren jatorriaren seinaleak ( C2PA ) | Plataformak, hedabideak, erabiltzaileak | £-££ | "Gizaki batek egin al du hau?" egiaztatzen laguntzen du - ez da erabat fidagarria, baina kaosa murrizten du |
| Tarifa mugak + sarbide kontrolak ( OWASP ) | IA hornitzaileak + enpresak | £ | Berehala geldiarazten du gehiegikeria eskalatzea. Egile gaiztoentzako abiadura-murriztaile bat bezala |
Bai, mahaia apur bat irregularra da. Horrelakoa da bizitza. 🙂
Adimen artifiziala erabaki garrantzitsuetan: gehiegi hartzen duenean 🏥🏦⚖️
Hemen gauzak azkar hasten dira serio.
Adimen artifiziala osasungintzan , finantzetan , etxebizitzan , enpleguan , hezkuntzan , immigrazioan , justizia penalean - hauek dira sistemak non: ( EBko Adimen Artifizialaren Legearen III. eranskina , FDA )
-
akats batek dirua, askatasuna, duintasuna edo segurtasuna gal diezaioke norbaiti,
-
eta kaltetutako pertsonak askotan borrokatzeko ahalmen mugatua du.
Arrisku handiena ez da “IAk akatsak egiten dituela”. Arrisku handiena IAren akatsak politika bihurtzea . ( NIST AI RMF 1.0 )
Nolakoa da hemen "urrunegi" den
-
Azalpenik gabeko erabaki automatizatuak: “ordenagailuak ezetz dio”. ( Erresuma Batuko ICO )
-
«Arrisku-puntuazioa» asmakizunen ordez gertakari gisa tratatzen da.
-
Zuzendaritzak abiadura nahi duelako emaitzak baliogabetu ezin dituzten gizakiak.
-
Datu nahasiak, alboratuak, zaharkituak edo guztiz okerrak.
Negoziaezina izan behar duena
-
Helegitea aurkezteko eskubidea (azkarra, ulergarria, ez labirinto bat). ( GDPR 22. art. , Erresuma Batuko ICO )
-
jakiteko eskubidea . ( Europako Batzordea )
-
Gizakiek egindako berrikuspena ondorioetarako. ( NIST AI RMF 1.0 )
-
Datuen kalitate-kontrola - zaborra sartzen denean zaborra ateratzen den arren, oraindik ere mingarriki egia da.
Lerro garbi bat marrazten saiatzen ari bazara, hona hemen bat:
IA sistema batek norbaiten bizitza materialki alda badezake, beste agintaritza motetatik espero dugun seriotasun bera behar du. Ez egin "beta probarik" izena eman ez duten pertsonei. 🚫
Deepfake-ak, iruzurrak eta “nire begietan konfiantza dut”-en heriotza motela 👀🧨
Hau da eguneroko bizitza... irristakor bihurtzen duen zatia.
Adimen artifizialak noiz sor dezakeen:
-
pertsonaia publiko batek zerbait “esaten” duen bideo bat,
-
benetakoak diruditen iritzi faltsuen uholde bat ( FTC )
-
LinkedIn profil faltsu bat, lan-historia faltsu batekin eta lagun faltsuekin…
...ez ditu iruzurrak ahalbidetzen bakarrik. Ezezagunek koordinatzea ahalbidetzen duen gizarte-kola ahultzen du. Eta gizartea ezezagunen koordinazioan oinarritzen da. 😵💫
"Urrutiegi" ez da eduki faltsua bakarrik
Asimetria da hau :
-
Merkea da gezurrak sortzea.
-
Garestia eta motela da egia egiaztatzea.
-
Eta jende gehiena lanpetuta, nekatuta eta korritzen ari da.
Zerk laguntzen du (apur bat)
-
Jatorrizko markatzaileak euskarrietarako. ( C2PA )
-
Biralitatearen aldeko marruskadura - berehalako masa-partekatzea moteltzea.
-
Nortasun egiaztapen hobea garrantzitsua den lekuetan (finantzak, gobernu zerbitzuak).
-
Banakoentzako oinarrizko "bandatik kanpo egiaztatzeko" ohiturak (itzul deitu, kode-hitz bat erabili, beste kanal baten bidez baieztatu). ( FTC )
Ez da glamourtsua. Baina segurtasun-uhalak ere ez dira, eta nik pertsonalki asko maite ditut. 🚗
Zaintza-atzerapena: adimen artifizialak isilean dena sentsore bihurtzen duenean 📷🫥
Hau ez da deepfake bat bezala lehertzen. Zabaldu besterik ez da egiten.
Adimen artifizialak errazten du:
-
jendetza artean aurpegiak identifikatzea ( EBko IA Legea , NIST FRVT )
-
pistaren mugimendu ereduak,
-
bideotik emozioak ondorioztatu (askotan gaizki, baina konfiantzaz), ( Barrett et al., 2019 , EU AI Act )
-
aurreikusi “arriskua” portaeran… edo zure auzoko giroan oinarrituta.
Eta zehaztugabea izan arren, kaltegarria izan daiteke, esku-hartzea justifika dezakeelako. Iragarpen oker batek ondorio errealak eragin ditzake oraindik.
Zati deserosoa
Adimen artifizialaren bidezko zaintza askotan segurtasun-istorio batekin lotuta dator:
-
«Iruzurra saihesteko da»
-
"Segurtasunerako da."
-
"Erabiltzaile esperientziarako da."
Batzuetan egia da hori. Batzuetan, geroago desmuntatzen oso zailak diren sistemak eraikitzeko aitzakia erosoa ere bada. Adibidez, zure etxean noranzko bakarreko ate bat instalatzea, garai hartan eraginkorra iruditu zitzaidalako. Berriz ere, ez da metafora perfektua - barregarria samarra - baina sentitzen duzu. 🚪😅
Nolakoa den “on” hemen
-
Atxikitzeko eta partekatzeko muga zorrotzak.
-
Garbitu aukera-bazterketak.
-
Erabilera kasu estuak.
-
Gainbegiratze independentea.
-
Ez da "emozioen detekziorik" erabiliko zigortzeko edo atezaintzarako. Mesedez. 🙃 ( EBko IA Legea )
Lana, sormena eta isilpeko deskantsazio arazoa 🧑💻🎨
Hemen eztabaida pertsonala bihurtzen da, identitateari ukitzen baitio.
Adimen artifizialak jendea produktiboagoa egin dezake. Jendea ordezkagarria dela sentiarazi ere diezaieke. Biak egia izan daitezke, aldi berean, aste berean. ( ELGA , WEF )
Benetan lagungarria den lekuan
-
Gizakiek pentsatzean zentratu ahal izateko, ohiko testua idaztea.
-
Errepikatzen diren ereduetarako kodetze laguntza.
-
Irisgarritasun tresnak (azpitituluak, laburpenak, itzulpena).
-
Ideia-jasa egitea trabatuta zaudenean.
Nondik urrunegi joaten den
-
Trantsizio-planik gabe rolak ordezkatzea.
-
AI erabiltzea ekoizpena murrizteko, soldatak berdinduz.
-
Sormen lana doako prestakuntza datu infinitu gisa tratatzea, eta gero sorbaldak altxatzea. ( AEBetako Copyright Bulegoa , UK GOV.UK )
-
Junior rolak desagerraraztea - eraginkorra dirudi etorkizuneko adituek igo behar duten eskailera erre duzula konturatzen zaren arte.
Trebetasun-galera sotila da. Ez duzu egunero nabaritzen. Orduan, egun batean, taldeko inork ez duela gogoratzen gauzak nola funtzionatzen duen laguntzailerik gabe konturatzen zara. Eta laguntzailea oker badago, denok batera oker zaudete ziur... eta hori amesgaizto moduko bat da. 😬
Botere kontzentrazioa: nork ezartzen ditu lehenetsitako balioak? 🏢⚡
IA “neutrala” bada ere (ez da), hura kontrolatzen duen edonork moldatu dezake:
-
zein informazio den erraz eskuratzeko modukoa,
-
zer sustatzen edo lurperatzen den,
-
zein hizkuntza den baimenduta,
-
zer nolako jokabideak sustatzen diren.
Eta IA sistemak eraikitzeko eta erabiltzeko garestiak izan daitezkeenez, energia kontzentratzeko joera du. Hori ez da konspirazioa. Hori ekonomia da teknologiako kaputxadun jertse batekin. ( UK CMA )
"Urrutiegi" unea hemen
Lehenetsitako arauak ikusezin bihurtzen direnean:
-
ez dakizu zer iragazten ari den,
-
ezin duzu logika aztertu,
-
eta ezin duzu errealistaki uko egin lanera, komunitatera edo oinarrizko zerbitzuetara sarbidea galdu gabe.
Ekosistema osasuntsu batek lehia, gardentasuna eta erabiltzaileen benetako aukera behar ditu. Bestela, errealitatea alokatzen ari zara, funtsean. 😵♂️
Kontrol-zerrenda praktikoa: nola jakin ea IA zure munduan gehiegi ari den 🧾🔍
Hona hemen erabiltzen dudan zerrenda bat (eta bai, ez da perfektua):
Banakakoa bazara
-
Adimen artifizialarekin elkarreragiten ari naizenean antzeman dezaket. ( Europako Batzordea )
-
Sistema honek gehiegi partekatzera bultzatzen nau.
-
Emaitza okerra bada, modu sinesgarri batean tratatzea ondo egongo nintzateke.
-
Honekin iruzur egingo banindute, plataformak lagunduko lidake... edo sorbaldak altxatuko lituzke.
Enpresa edo talde bat bazara
-
AI erabiltzen ari gara baliotsua delako, edo modan dagoelako eta zuzendaritza urduri dagoelako.
-
Badakigu zein datu ukitzen dituen sistemak.
-
Erabiltzaile kaltetu batek emaitzak errekurritu ditzake. ( Erresuma Batuko ICO )
-
Gizakiek eredua gainditzeko ahalmena dute.
-
IA akatsetarako intzidenteei erantzuteko planak ditugu.
-
Desbideratzea, erabilera okerra eta ertzeko kasu ezohikoak kontrolatzen ari gara.
Hauetako mordoa "ez" erantzun baduzu, horrek ez du esan nahi gaiztoa zarenik. Gizakion ohiko egoeran zaudela esan nahi du, "bidali eta espero genuen" esan nahi baitu. Baina, zoritxarrez, espero izatea ez da estrategia bat. 😅
Amaierako oharrak 🧠✅
Beraz... IA gehiegi urrundu al da?
Gehiegi urrundu da erantzukizunik gabe erabiltzen denean , batez ere erabaki garrantzitsuetan, konbentzimendu masiboan eta zaintzan. Gainera, gehiegi urrundu da konfiantza higatzen duenean - konfiantza hausten denean, dena garestiagoa eta etsaiagoa bihurtzen baita, sozialki hitz eginda. ( NIST AI RMF 1.0 , EBko IA Legea )
Baina IA ez dago berez kondenatuta edo perfektua. Biderkatzaile indartsua da. Galdera da ea babes-hesiak gaitasunak eraikitzen ditugun bezain oldarkorki eraikitzen ditugun.
Laburpen azkarra:
-
IA tresna gisa ondo dago.
-
Arriskutsua da erantzukizunik gabeko agintaritza gisa.
-
Norbaitek ezin badu helegiterik jarri, ulertu edo uko egin, hor hasten da “urrunegi” esaten. 🚦 ( GDPR 22. art. , Erresuma Batuko ICO )
Maiz egiten diren galderak
IA gehiegi joan al da eguneroko bizitzan?
Leku askotan, IA gehiegi urrundu da, erabakietan eta interakzioetan sartzen hasi delako mugarik edo erantzukizunik gabe. Arazoa gutxitan da "IA existitzen dela"; IA isilean kontratazioan, osasungintzan, bezeroarentzako arreta-zerbitzuan eta jarioetan txertatzen ari da, gainbegiratze gutxirekin. Jendeak ezin duenean bereizi IA den, ezin dituenean emaitzak ukatu edo ezin duenean baztertu, tresna bat bezala sentitzeari uzten dio eta sistema bat bezala sentitzen hasten da.
Zer itxura du “IA gehiegi urruntzea” erabaki garrantzitsuetan?
Badirudi IA osasungintzan, finantzetan, etxebizitzan, enpleguan, hezkuntzan, immigrazioan edo justizia penalean erabiltzen ari dela babes-hesi sendorik gabe. Arazo nagusia ez da modeloek akatsak egiten dituztela; akats horiek politika bihurtzen direla eta zailak direla zalantzan jartzen. Azalpen ahulak eta errekurtso esanguratsurik gabeko "ordenagailuak ezetz dio" erabakietan gertatzen da kaltea azkar handitzen dena.
Nola jakin dezaket erabaki automatizatu batek eragiten didan, eta zer egin dezaket?
Seinale ohikoa da azaldu ezin duzun bat-bateko emaitza bat izatea: ukapena, murrizketa edo arrazoi argirik gabeko "arrisku puntuazio" sentsazioa. Sistema askok IAk noiz jokatu duen paper garrantzitsua jakinarazi beharko lukete, eta erabakiaren atzean dauden arrazoi nagusiak eta helegitea jartzeko urratsak eskatu ahal izan beharko zenituzke. Praktikan, eskatu berrikuspen bat, zuzendu datu okerrak eta bultzatu bazterketa bide erraz bat.
Adimen artifiziala gehiegi joan al da pribatutasunarekin, baimenarekin eta datuen erabilerarekin?
Askotan gertatu da baimena altxorraren bilaketa bihurtzen denean eta datuen bilketa zabaltzen denean “badaezpada ere”. Artikuluaren puntu nagusia da pribatutasunak eta baimenak ez dutela pisu handirik inguruneetan ezkutatzen badira edo termino lausoen bidez behartzen badira. Ikuspegi osasuntsuagoa datuak minimizatzea da: gutxiago bildu, gutxiago gorde eta aukerak ukaezinak izan daitezen, jendea geroago harritu ez dadin.
Nola aldatzen dute deepfake-ek eta IA iruzurrek "konfiantza" esan nahi duena sarean?
Egia aukerakoa dela ematen dute, ahots, bideo, iritzi eta identitate faltsu sinesgarriak ekoizteko kostua murriztuz. Asimetria da arazoa: gezurrak sortzea merkea da, egia egiaztatzea, berriz, motela eta nekagarria. Defentsa praktikoen artean daude komunikabideen jatorri-seinaleak, biralki partekatzea moteltzea, identitate-egiaztapen sendoagoak egitea garrantzitsua den lekuetan eta "bandatik kanpo egiaztatzeko" ohiturak, hala nola, deitzea edo kode-hitz partekatu bat erabiltzea.
Zeintzuk dira IA gehiegi urrutira joatea eragozteko babes-hesi praktikoenak?
Emaitzak aldatzen dituzten babes-hesien artean, dei garrantzitsuetarako benetako giza berrikuspena, helegite-prozesu argiak eta porroten ondoren "zer gertatu da?" erantzun dezaketen auditoria-erregistroak daude. Modeloen ebaluazioak eta alborapen-probak kalte aurreikusgarriak lehenago detektatu ditzakete, eta talde gorriaren probak erasotzaileek egin aurretik gaizki erabiltzea simulatzen du. Tasa-mugek eta sarbide-kontrolek gehiegikeria berehala eskalatzea eragozten dute, eta datuen minimizazioak arriskua murrizten du orokorrean.
Noiz gainditzen du muga IA bidezko zaintzak?
Muga gainditzen du dena lehenespenez sentsore bihurtzen denean: aurpegia ezagutzea jendetzan, mugimendu-ereduen jarraipena edo zigortzeko edo atezaintzarako erabiltzen den "emozioen detekzioa" ziurra. Sistema zehaztugabeek ere kalte larriak eragin ditzakete esku-hartzeak edo zerbitzuak ukatzea justifikatzen badituzte. Praktika onak erabilera-kasu estuak, atxikipen-muga zorrotzak, uko egiteko aukera esanguratsuak, gainbegiratze independentea eta emozioetan oinarritutako epaiketa zalantzagarriei "ez" irmoa bezalakoak dira.
Adimen artifizialak jendea produktiboagoa egiten al du, ala lana isilpean gutxiesten al du?
Biak izan daitezke egia aldi berean, eta tentsio horixe da kontua. Adimen artifizialak lagun dezake ohiko zirriborroekin, kodetze-eredu errepikakorretan eta irisgarritasunean, gizakiak askatuz pentsamendu maila altuagoetan zentratzeko. Gehiegi doa trantsizio-planik gabeko rolak ordezkatzen dituenean, soldatak murrizten dituenean, sormen-lana doako prestakuntza-datu gisa tratatzen duenean edo etorkizuneko espezializazioa eraikitzen duten junior rolak kentzen dituenean. Trebetasun-galera sotila izaten jarraitzen du taldeek laguntzailerik gabe funtzionatu ezin duten arte.
Erreferentziak
-
Estandar eta Teknologia Institutu Nazionala (NIST) - AI Arriskuen Kudeaketa Esparrua (AI RMF 1.0) - nist.gov
-
Europar Batasuna - EBko Adimen Artifizialaren Legea (2024/1689 Erregelamendua (EB)) - Aldizkari Ofiziala (Ingelesez) - europa.eu
-
Europako Batzordea - IArako araudi-esparrua (EBko IA Legearen politika-orria) - europa.eu
-
EBko IA Legearen Zerbitzu Mahaia - III. eranskina (Arrisku handiko IA sistemak) - europa.eu
-
Europar Batasuna - EBn adimen artifizial fidagarrirako arauak (EBko IA Legearen laburpena) - europa.eu
-
Erresuma Batuko Informazio Komisarioaren Bulegoa (ICO) - Zer da banakako erabaki automatizatuak eta profilak egitea? - ico.org.uk
-
Erresuma Batuko Informazio Komisarioaren Bulegoa (ICO) - Zer dio Erresuma Batuko GDPRk erabaki automatizatuak hartzeari eta profilak egiteari buruz? - ico.org.uk
-
Erresuma Batuko Informazio Komisarioaren Bulegoa (ICO) - Erabakiak hartzeko eta profilak egiteko sistema automatizatua (orientazio gunea) - ico.org.uk
-
Erresuma Batuko Informazio Komisarioaren Bulegoa (ICO) - Datuen minimizazioa (Erresuma Batuko GDPR printzipioen gida) - ico.org.uk
-
GDPR-info.eu - GDPRren 22. artikulua - gdpr-info.eu
-
GDPR-info.eu - GDPRren 5. artikulua - gdpr-info.eu
-
AEBetako Merkataritza Batzorde Federala (FTC) - Iruzurgileek adimen artifiziala erabiltzen dute familientzako larrialdi-eskemak hobetzeko - ftc.gov
-
AEBetako Merkataritza Batzorde Federala (FTC) - Iruzurgileek larrialdi faltsuak erabiltzen dituzte zure dirua lapurtzeko - ftc.gov
-
AEBetako Merkataritza Batzorde Federala (FTC) - Iritzi eta testigantza faltsuak debekatzen dituen azken araua (prentsa-oharra) - ftc.gov
-
Ikerketa Bulego Federala (FBI) - FBIk adimen artifiziala erabiltzen duten ziberkriminalen mehatxu gero eta handiagoaz ohartarazi du - fbi.gov
-
Ekonomia Lankidetza eta Garapenerako Erakundea (ELGE) - ELGEko IA Printzipioak - oecd.ai
-
ELGA - Kontseiluaren Adimen Artifizialaren Gomendioa (OECD/LEGAL/0449) - oecd.org
-
Europako Batzordea - Adimen Artifizialaren sistema gardenetarako jarraibideak eta praktika-kodea (FAQ) - europa.eu
-
Edukien Jatorri eta Benetakotasunerako Koalizioa (C2PA) - Zehaztapenak v2.3 - c2pa.org
-
Erresuma Batuko Lehia eta Merkatuen Agintaritza (CMA) - IA oinarri ereduak: hasierako txostena - gov.uk
-
AEBetako Elikagai eta Sendagaien Administrazioa (FDA) - Adimen Artifizialeko Gailu Medikoak - fda.gov
-
NIST - Informazio Sistemen eta Erakundeen Segurtasun eta Pribatutasun Kontrolak (SP 800-53 5. Berrikuspena) - nist.gov
-
NIST - IA Sortzailearen Profila (NIST.AI.600-1, ipd) - nist.gov
-
Mundu Osoko Aplikazioen Segurtasun Proiektu Irekia (OWASP) - Baliabideen Kontsumo Mugagabea (API Segurtasun Top 10, 2023) - owasp.org
-
NIST - Aurpegiaren Ezagutza Saltzaileen Proba (FRVT) Demografia - nist.gov
-
Barrett et al. (2019) - Artikulua (PMC) - nih.gov
-
ELGA - Adimen Artifiziala lantokian erabiltzea (PDF) - oecd.org
-
Munduko Ekonomia Foroa (MFE) - Lanpostuen Etorkizunari buruzko Txostena 2025 - Laburpena - weforum.org
-
AEBetako Copyright Bulegoa - Copyright eta Adimen Artifiziala, 3. zatia: IA Sortzailearen Prestakuntza Txostena (Argitaratze aurreko bertsioa) (PDF) - copyright.gov
-
Erresuma Batuko Gobernua (GOV.UK) - Copyrighta eta adimen artifiziala (kontsulta) - gov.uk