IA Berriak 2026ko martxoaren 4a

IAren albisteen laburpena: 2026ko martxoaren 4a

🏛️ Gobernuak laborategi berri bat sortuko du Erresuma Batua IAren aurrerapenetan azkar mantentzeko

Erresuma Batuak gobernuak babestutako Oinarrizko Adimen Artifizialaren Ikerketa Laborategi bat sortzen ari da, "zeru urdineko" lan gisa aurkeztuz - arriskutsua, motela eta batzuetan etekina ateratzen duen motakoa, beste guztiak lozorroan egon direla ematen duen moduan. ( GOV.UK )

Arreta ez dago soilik “modelo handiagoak, GPU gehiago”-n - haluzinazioak, memoria laburra eta arrazoiketa aurreikusezina bezalako akats iraunkorrak konpontzen ari da, eta ikertzaileei AI Research Resource-ren bidez konputazio serioetarako sarbidea ematen ari da. Oso zentzuzkoa dirudi... eta, isilean, Erresuma Batuko buru onenak beste nonbait berehala xurgatuak izatea eragozteko saiakera baten antzekoa ere bada. ( GOV.UK )

🧨 Nvidiako zuzendari nagusiak OpenAI eta Anthropic-en inbertsioen amaiera iradoki du

Jensen Huangek adierazten ari da Nvidiak ez duela modu berean inbertitzen jarraituko mugako IA laborategietan - IPO dinamikak (eta eztabaidatzen ari diren kontrolen eskala handiak) finantzaketa mota hori lortzea zailtzen baitu. ( Reuters )

Tonu aldaketa bat da, eta aintzat hartzeko modukoa: Nvidia da boom honen erregea, baina "meatzarien zatiak edukitzea" ez dela beti jokoa iradokitzen ari da. Edo agian ozenki isiltzea besterik ez da, zuzendari nagusiek egiten dutena, arnasa hartzea bezala. ( Reuters )

🧩 Esklusiboa: Teknologia talde handi batek Anthropic babesten du Pentagonoaren aurkako borrokan, inbertitzaileek IA babes neurrien inguruko gatazka baretzeko ahaleginak egiten dituzten bitartean

Anthropic-en Pentagonoarekiko gatazka presio-eltze bihurtzen ari da - inbertitzaileek tenperatura jaitsi nahi dutela diote, konpainiak babes-hizkuntzari eusten saiatzen den bitartean (batez ere zaintzari dagokionez). ( Reuters )

Istorioaren azpitestua ia testua baino ozenagoa da: IA aroan, kontratuen hitzak ez dira "lege-kritika hutsak", funtsean produktuaren politika baizik, eta modelo bat tresna, arma edo erantzukizun zabal bihurtzen den erabakitzen du. ( Reuters )

🪖 Sam Altmanek onartu du OpenAI-k ezin duela Pentagonoak AI erabiltzen duen modua kontrolatu

Altmanek langileei esan zien OpenAIk ezin duela kontrolatu Pentagonoak bere IA nola erabiltzen duen behin zabalduta dagoenean - eta horrek zarata handia eragiten du, jendeak inguratzen ari zen beldur zehatza izendatzen duelako. ( The Guardian )

Testuinguru zabalagoa "lagunduko dugu, arauekin" eta "lagunduko dugu, puntu" arteko tentsio gero eta handiagoa da, gehi barne eta publikoki eragiten du adopzio militarra presaka edo oportunista iruditzen denean. Hemen etika ez da lerro txukun bat, baizik eta pintura busti isuri bat - denek pausoa ematen dute, eta gero eztabaidatzen dute noren oinetakoa den. ( The Guardian )

🧬 Genomikako IA beka berria Sanger Institutuarekin eta Google DeepMind-ekin

Wellcome Sanger Institutuak DeepMind-ek finantzatutako beka akademiko bat abiarazten ari da, genomikan adimen artifiziala aplikatzean oinarritua - DeepMind-eko kide batentzako lehen postua izango da arlo honetan. ( sanger.ac.uk )

Interesgarria dena (eta, egia esan, pixka bat freskagarria) da gutxi esploratu diren genomika arazoetan jartzen den arreta, non IA ez dagoen dagoeneko nonahi - gehi DeepMindek ez duela kidearen ikerketa zuzentzen dioen ohar esplizitua. Norbaiti suziri bat eman eta "zoaz zerbait aurkitzera" esatea bezala da, "zoaz gure bide-orria optimizatzera" esan beharrean. ( sanger.ac.uk )

Maiz egiten diren galderak

Zer da Erresuma Batuko gobernuak babestutako Oinarrizko IA Ikerketa Laborategia, eta zer egingo du?

Gobernuak babestutako Oinarrizko IA Ikerketa Laborategia "zeru urdin" ikerketa ahalegin gisa kokatzen ari da - arrisku handiko lana, denbora behar izan dezakeena emaitzak lortzeko. Eredu gero eta handiagoak eskalatzean bakarrik zentratu beharrean, haluzinazioak, memoria laburra eta arrazoiketa aurreikusezina bezalako arazo iraunkorrak konpontzea du helburu. Argudioa da aurrerapenak oinarrietatik datozela, ez GPU gehiago gehitzetik soilik.

Nola lagun diezaieke Erresuma Batuko Oinarrizko AI Ikerketa Laborategiak ikertzaileei konputazio serioetara sartzen?

Erresuma Batuko Oinarrizko AI Ikerketa Laborategiarekin batera, planak AI Ikerketa Baliabidearen bidez konputazio-gaitasun handia lortzeko sarbidea azpimarratzen du. Praktikan, horrek esan nahi du ikertzaileek kostuak edo azpiegiturak mugatuko lituzketen esperimentuak egin ditzaketela. Gainera, taldeei ideiak probatzeko aukera ematen die, fidagarritasuna eta sendotasuna bezalako arazoak konkretu bihurtzen diren eskalan, ez bakarrik teorikoak.

Zergatik azpimarratzen ditu Erresuma Batuak haluzinazioak, memoria laburra eta arrazoiketa aurreikusezina?

Ahultasun horiek dira hedapenean azaleratzen direnak eta konfiantza azkar higatu dezaketenak. Adierazitako fokuak iradokitzen du helburua ez dela gaitasuna bakarrik, fidagarritasuna baizik: asmatutako irteerak murriztea, ereduek testuinguru luzeagoa nola kudeatzen duten hobetzea eta arrazoiketa gutxiago irregularra egitea. Lan mota hori askotan motelagoa eta arriskutsuagoa da, horregatik oinarrizko ikerketa gisa hartzen da.

Zer adierazten du benetan Nvidiak OpenAI edo Anthropic-en inbertitzeko duen tonu aldaketak?

Txostenak Nvidiak ez duela aurreranzko laborategietan modu berean inbertitzen jarraituko adierazten du, batez ere IPOen dinamikak eta txekeen tamaina handiek estrategia hori zailtzen dutelako. IA hardwarean “biltzen eta palatzen” duen liderra izan arren, jabetza-partaidetzak ez direla beti jokaldirik onena iradokitzen ari da. Mezu zuhurra ere izan liteke, zuzendarien iruzkinetan ohikoa dena.

Zergatik da hain garrantzitsua Anthropic-en Pentagonoaren arteko eztabaida "babes-hizkuntzari" buruz?

Artikuluaren puntu nagusia da kontratuaren hitzak produktuaren politika bihur daitezkeela, batez ere zaintzari eta beste erabilera sentikor batzuei dagokienez. Inbertitzaileek gatazka baretu nahi dutela jakinarazi da, enpresak babes neurriei eusten saiatzen den bitartean. Adimen artifizialaren hedapen askotan, klausula horiek sistema zertarako erabil daitekeen eta enpresak zer arrisku onartzen dituen zehazten dute.

Zer esan nahi du Sam Altmanek OpenAI-k ezin duela Pentagonoak AI nola erabiltzen duen kontrolatu dioenean?

Muga praktiko bat deskribatzen ari da: tresna bat zabaldu ondoren, jatorrizko garatzaileak gaitasun mugatua izan dezake ondorengo erabilera gobernatzeko. Hori oso garrantzitsua da jendeak adopzio militarraren inguruan duen beldur nagusia adierazten duelako: arauak egon daitezke kontratazio fasean, baina betearaztea zaila izan daiteke. Gainera, "laguntza, mugak kontuan hartuta" eta "laguntza, edozein dela ere" arteko tentsio zabalagoa islatzen du

Atzoko IA Berriak: 2026ko martxoaren 3a

Aurkitu azken IA AI Laguntzaileen Denda Ofizialean

Guri buruz

Blogera itzuli