IA Berriak 2026ko martxoaren 9a

IAren albisteen laburpena: 2026ko martxoaren 9a

⚖️ Anthropic-ek auzitara jo du Pentagonoaren zerrenda beltza blokeatzeko, IAren erabilera murrizketengatik

Anthropic-ek Pentagonoarekin izandako borroka auzitara eraman du, hornidura-kateko arriskutzat jo ondoren. Konpainiak dio neurria legez kanpoko mendekua izan zela arma autonomoen eta etxeko zaintzaren inguruko babes-hesiak lasaitzeari uko egiteagatik, eta horrek gatazka hau IA politikako puntu sutsuenen artean kokatzen du une honetan. ( Reuters )

Gobernuak malgutasuna nahi du "edozein erabilera zilegirako", Anthropic-ek argudiatzen duen bitartean laborategi pribatuek segurtasun-lerro gogorrak marratzen jarraitu beharko luketela. Hau bihurtu da orain arteko probarik argienetako bat ea IA enpresa batek baldintza militarrei "ez" esan diezaiekeen horregatik zapuztua izan gabe. ( Reuters )

🧑💻 OpenAI eta Googleko langileek Anthropic-en Pentagonoaren aurkako auzia babesten dute

Auzi horrek azkar lortu zuen babesa laborategi lehiakideen barnean ere. OpenAI eta Googleko ia 40 langilek Anthropic babestu zuten amicus curiae txosten batean, argudiatuz IAren segurtasun-lerro gorrien inguruan enpresen aurka mendekatzea interes publikoaren aurka doala. ( The Verge )

Beraz, bai, lehiakideak bat-batean alde berean aurkitu dira beren burua - behintzat puntu honetan. Laburpenak zaintza masiboan eta arma autonomo fidagarrietan jartzen du arreta, eta horrek afer osoa Silicon Valleyko ohiko tiroketen antzekoagoa eta benetako industria-lerro baten antzekoagoa bihurtzen du... edo lokatzetan, agian. ( The Verge )

🛡️ OpenAI-k Promptfoo erosi du bere IA agenteak babesteko

OpenAI-k iragarri du Promptfoo erosiko duela, hizkuntza-eredu handiak erasoetatik babesten dituen startup bat. Plana da bere teknologia OpenAI Frontier-en txertatzea, konpainiaren IA agenteentzako enpresa-plataforman. ( TechCrunch )

Mugimendu esanguratsua da. Denek nahi dute agenteen IA gehiago, azkarrago eta nonahi egitea, baina segurtasunaren aldea atzean geratu da, apur bat edo asko izan. Akordio honek iradokitzen du OpenAI-k uste duela hurrengo lasterketa handia ez dela agente adimentsuagoentzat bakarrik, baita seguruagoentzat ere. ( TechCrunch )

🧪 Anthropic-ek kodea berrikusteko tresna abiarazi du IA bidez sortutako kodearen uholdea kontrolatzeko

Anthropic-ek Code Review abiarazi zuen Claude Code-ren barruan, IA kodeketa tresnek sortutako pull request-etan itota dauden taldeei zuzenduta. Hainbat agente erabiltzen ditu paraleloan kodea eskaneatzeko, logika arazoak markatzeko, larritasuna sailkatzeko eta iruzkinak zuzenean GitHub-en uzteko. ( TechCrunch )

Argudioa nahiko sinplea da: IAk kodea sortzen ari da gizakiek zentzuz berrikusi dezaketena baino azkarrago, beraz, orain IAk berrikusi behar du. Sugeak isatsa jaten duen antzeko antolaketa bat da, baina praktikoa. Anthropic-ek dioenez, Claude Code-ren kode irteera masiboa ikusten ari diren enpresa erabiltzaileentzat pentsatuta dago. ( TechCrunch )

💰 Nvidiak babestutako Nscalek 14.600 milioi dolarreko balioa izan du finantzaketa-txanda berri batean

Erresuma Batuko Nscale IA azpiegitura enpresak 2.000 milioi dolar bildu zituen C Serieko txandan, 14.600 milioi dolarreko balorazioarekin. Babesleen artean Aker, 8090 Industries, Nvidia, Citadel, Dell eta Jane Street zeuden, eta horrek konfiantza boto nahiko handia esan nahi du. ( Reuters )

Hau garrantzitsua da, ez baita beste modelo baten aurkezpena edo chatbot baten doikuntza. Boomaren pikotxa eta pala aldea da: konputazioa, azpiegitura, edukiera, atzean dagoen makineria astun guztia. Ez da liluragarria, agian, baina hortik ari da diru asko isurtzen orain. ( Reuters )

🧠 Yann LeCunen AMI Labs-ek 1.030 milioi dolar bildu ditu munduko ereduak eraikitzeko

Yann LeCunen AMI Labs enpresa berriak 1.030 milioi dolar bildu ditu, 3.500 milioi dolarreko balorazioarekin. Enpresak "mundu ereduak" bilatzen ditu - hizkuntzatik baino gehiago errealitatetik bertatik ikasteko diseinatutako adimen artifizial sistemak. ( TechCrunch )

Hori LLM-ren aldeko egungo adostasunaren aurkako zuzenketa filosofikoa da, eta gainera, oso zakarra. LeCunek urteetan argudiatu du gaur egungo hizkuntza-ereduek ez gaituztela gizakien mailako adimenera eramango, beraz, igoera honek argudio hori esperimentu oso garesti bihurtzen du. ( TechCrunch )

🇨🇳 Txinako teknologia-guneek OpenClaw AI agentea sustatzen dute segurtasun-abisuak gorabehera

Txinako hainbat tokiko gobernuk OpenClaw babesten ari dira, datu pertsonaletarako sarbidearekin lotutako segurtasun kezkak izan arren azkar zabaltzen ari den adimen artifizialaren agente bat. Beraz, badirudi giro ofiziala hau dela: bai, arriskuak badaude - eta bai, eskala dezagun hala ere. ( Reuters )

Banaketa hori da istorioa. Tokiko guneek goranzko joera ekonomikoa eta ekosistemen bultzada nahi dituzte, eta erregulatzaileek datuen esposizioaz ohartarazten dute. IA eredu ezaguna da orain - lehenengo esprinta egin, gero babes-hesiak garbitu, edo hori dirudi behintzat. ( Reuters )

Maiz egiten diren galderak

Zergatik salatzen du Anthropicek Pentagonoa IAren erabilera murrizketengatik?

Anthropic-ek dioenez, Pentagonoak hornidura-kateko arriskutzat jo zuen enpresak arma autonomoetara eta etxeko zaintzara heda zitezkeen baldintza zabalagoak ukatu ondoren. Horrek esan nahi du auzia saltzaile-egoera baino gehiago dela. IA laborategi batek segurtasun-muga sendoak mantendu eta gobernuaren lanagatik lehiatu daitekeen aztertzen ari da zigorrik gabe.

Zergatik ari dira OpenAI eta Googleko langileak Anthropic babesten IAren segurtasun gatazka honetan?

Amicus curiae txostenak adierazten du lehiakide diren laborategietako jende askok aurrekariak ezartzen dituen IA segurtasun arazo gisa ikusten duela hau, ez soilik enpresa baten eta agentzia baten arteko borroka gisa. Haien kezka da saltzaile bat muga gorriak mantentzeagatik zigortzeak merkatu zabalagoa presioa egin dezakeela babes neurriak ahultzeko. Praktikan, horrek etorkizuneko defentsa eta sektore publikoko IA kontratuak nola negoziatzen diren baldintzatu dezake.

Zer alda dezake Antropiko-Pentagono kasuak IA politika eta defentsa kontratuetarako?

Anthropic-ek irabazten badu, IA enpresek oinarri sendoagoa izan dezakete erabilera onartezinak definitzeko, baita gobernu-ingurune sentikorretan saltzen dutenean ere. Galtzen badu, agentziek abantaila lor dezakete hornitzaileei "erabilera zilegi" termino zabalagoak eskatzeko. Nolanahi ere, gatazka honek eragina izango du erosketa-hizkuntzan, arriskuen berrikuspenetan eta segurtasun-neurriak defentsa-akordioetan idazteko moduan.

Zergatik erosi zuen OpenAI-k Promptfoo IA agenteentzat?

Promptfoo ezaguna da hizkuntza-eredu handiak probatzeagatik aurkarien gonbidapenen eta bestelako segurtasun-ahultasunen aurka. Tresna mota hori OpenAIren enpresa-agenteen plataforman sartzeak iradokitzen du enpresak inplementazio seguruagoa abantaila lehiakor gisa ikusten duela, bigarren mailako zeregin gisa baino. IA agenteek lan garrantzitsuagoa hartzen duten heinean, erresilientzia eta abusu probak askoz zailagoak dira alde batera uzten.

Nola kudeatu dezakete taldeek IAk sortutako kode uholdea modu seguruagoan?

Anthropic-en Claude Code-ren barruan dagoen Code Review funtzio berria IA kodeketa tresnek sortutako pull request-ek gainezka egiten dieten taldeei zuzenduta dago. Hainbat agente erabiltzen ditu paraleloan logika arazoak detektatzeko, larritasuna sailkatzeko eta GitHub-en iruzkinak uzteko. Normalean, horrelako tresnek bolumena sailkatzen laguntzen dute, baina giza berrikusleak oraindik ere garrantzitsuak dira arkitektura, testuinguru eta azken onarpenerako.

Zergatik ari da hainbeste inbertsio jasotzen IA azpiegituretan oraintxe bertan?

Nscale-ren azken finantzaketa-txandak nabarmentzen du IA industriak kapital izugarria inbertitzen ari dela oraindik konputazioan, azpiegituretan eta gaitasunean. Gastu hori modelo baten aurkezpen deigarri bat baino ikusgaitzagoa izan daiteke, baina beste guztiaren oinarria da. Prestakuntza eta hedapenaren eskaria handitzen jarraitzen duenean, pikotxak eta palak saltzen dituzten enpresak izaten dira irabazle handienetako batzuk.

Zer dira mundu ereduak, eta zergatik egiten du apustu Yann LeCunek haien alde?

Mundu-ereduak munduak nola jokatzen duen ikasteko diseinatutako adimen artifizialaren sistemak dira, hizkuntza-datuetan oinarritu beharrean. Hori garrantzitsua da, Yann LeCunek aspaldi argudiatu baitu hizkuntza-ereduek berez nekez lortuko dutela gizakien mailako adimena. AMI Labsek ikuspegi hori apustu komertzial handi bihurtzen du adimen artifizialaren ikerketa aurreraturako bide desberdin baten aldeko apustu komertzial garrantzitsu batean.

Zergatik babesten dute Txinako teknologia-guneek OpenClaw segurtasun-abisuak gorabehera?

OpenClaw-en istorioak ohiko banaketa bat erakusten du teknologia-merkatu azkarren barruan: tokiko gobernuek hazkundea, diru-laguntzak eta ekosistemen bultzada nahi dituzte, eta erregulatzaileek, berriz, datuen esposizioaz eta segurtasunaz kezkatzen dira. Agenteari abisuak eman arren babesak iradokitzen du pizgarri ekonomikoak nagusi direla leku batzuetan. Behatzaileentzat, beste gogorarazle bat da adopzioa askotan gainbegiratzea baino azkarrago doala.

Atzoko IA Berriak: 2026ko martxoaren 8a

Aurkitu azken IA AI Laguntzaileen Denda Ofizialean

Guri buruz

Blogera itzuli