IAren albisteen laburpena: 2026ko urtarrilaren 21a

IAren albisteen laburpena: 2026ko urtarrilaren 21a

🌍 OpenAI-k eguneroko bizitzan IAren erabilera globala handitu nahi du

OpenAI-k "herrialdeetan zentratutako" adopzio kanpaina bat bultzatzen ari da - proposamena: utzi IA laborategiko jostailu bat bezala tratatzeari eta hasi jendeak egunero ukitzen dituen zerbitzu publikoetara konektatzen.

Adibide batzuk hezkuntza-hedapenak dira (pentsa: eskala handian erabiltzen diren ChatGPT estiloko tresnak), eta urarekin lotutako hondamendien alerta goiztiarrak bezalako sistema praktikoetan egindako lana. Oso mezua da "hau isilean praktikoa izan beharko litzateke" delakoa, eta ezin dut saihestu gustuko izatea... negozio-estrategia bat ere bada ere.

OpenAI-k Stargate-ren energia-kostuak ordainduko dituela zin egin du

OpenAI-k dio Stargate datu-zentroaren eraikuntzarekin lotutako energia-kostuak estaliko dituela, eta ez duela gainerako guztientzat tokiko elektrizitate-prezioak igo nahi aurkeztu.

Horrek esan nahi du energia-ahalmen berria, biltegiratzea, transmisio-hobekuntzak edo sare elektrikoa kargapean ez kikiltzeko bestelako azpiegiturak finantzatzea. Alde batetik, herritar onaren jarrera da, bestetik, prebentzio-politika; bi gauzak egia izan daitezke aldi berean, gogaikarria bada ere.

🎧 OpenAI-k bere lehen gailua 2026an kaleratu nahi du, eta entzungailuak izan litezke

OpenAI hardwareari buruzko zurrumurruak pilatzen ari dira, eta honek dio lehenengo gailua entzungailuak izan daitezkeela - janzten duzun "AI lehenik" tramankulu bat, ez irekitzen duzun aplikazio bat soilik.

Kode-izen bati buruzko zurrumurruak daude (“Sweet Pea”) eta siliziozko anbizio oldarkorrak, prozesaketa gehiago gailuan bertan gertatzen delarik, beti hodeira errebotatu beharrean. Jendearen entzungailuen ohiturak ordezkatzea ibaia koilara batekin birbideratzen saiatzea bezalakoa da... baina tira, produktuen apustu basatiagoek funtzionatu dute.

📜 Anthropic-en Clauderen 'konstituzio' berria: izan zaitez lagungarria eta zintzoa, eta ez suntsitu gizateria

Anthropic-ek “Claude-ren Konstituzioa” eguneratua argitaratu zuen - funtsean, Claude-k nola erantzuten, arrazoitzen eta uko egiten dion moldatzeko balio eta portaera eredu bat.

Benetan arriskutsuak diren gauzen (armak, kalte handiak, botere-hartzea, kolpe handienen) inguruan muga zorrotzagoak ezartzen ditu, eta, aldi berean, arau zurrunen ordez, "printzipio" ñabarduratuagoetara jotzen du. Harrigarriro gauza pikante bat: IA aurreratuek kontuan hartu beharreko morala merezi duten ala ez zalantzan jartzen du argi eta garbi; ez du esaten merezi dutenik, galdera erreala balitz bezala tratatzen du besterik gabe.

🛡️ Google Workspace for Education-erako segurtasun eta adimen artifizialaren detekzio funtzio berriak

Google-k Workspace for Education-en segurtasun-ezaugarri berriak iragarri ditu, IA bidez sortutako edukia detektatzeko eta egiaztatzeko arreta berezia jarriz, eskolako desinformazioa purpurina bezala zabaltzen baita eta ez baita inoiz erabat alfonbratik ateratzen.

Nabarmentzeko modu bat Gemini aplikazioan IA bidez sortutako irudi eta bideoetarako SynthID-ri lotutako egiaztapena da, babes sendoagoekin batera, hala nola ransomware detekzioa eta ordenagailuko Drive-rako fitxategiak berreskuratzeko erraztasuna. Segurtasun-lan serioaren eta "mesedez, fidatu zaitez gurekin ikasgeletan" esaldiaren nahasketa da, eta hori... egia esan, bidezkoa da.

🚫 Google DeepMind-eko zuzendari nagusiak Gemini iragarkietarako "ez dagoela planifikatuta" berretsi du, ChatGPT-k "hain goiz" gehitu dituela harrituta

DeepMindeko Demis Hassabisek berretsi zuen Geminik ez duela iragarkietarako asmorik, eta harrituta geratu zen ChatGPTk "hain goiz" iragarkietara jo izanagatik

Kokapen garbia da - laguntzailea produktu gisa, ez laguntzailea kartel gisa. Hala ere, "planik ez" korporatiboa da "galdetu berriro geroago" ordez, beraz... ikusiko dugu zenbaterainoko sendoa den promesa hori.

🏛️ Gida berriek Erresuma Batuan IA modu eraginkor eta arduratsuan arautzen lagunduko dute

Alan Turing Institutuak arautze-gaitasunen esparru bat eta autoebaluazio tresna bat argitaratu zituen, Erresuma Batuko erregulatzaileei IA gainbegiratzeko prestatuta dauden ala ez ebaluatzen laguntzeko helburuarekin.

Oso itxura gutxikoa da - kontrol-zerrendak, gaitasun-faktoreak, "nolako itxura ona duen" adierazpenak - baina horixe da kontua. Benetako gobernantza ertz zorrotzeko paper-lanen antza izan ohi du, ez hitzaldi dotoreak... edo hala dirudi behintzat.

Maiz egiten diren galderak

Zein da OpenAIren “herrialdeetan zentratutako” bultzada eguneroko bizitzan IAren erabilera globala handitzeko?

Adimen artifiziala produktu independente gisa tratatzetik eta egunero erabiltzen dituzten zerbitzu publikoetan txertatzera doa. Helburua da Adimena sistema praktiko eta ukipen handikoetan konektatzea, "laborategiko" demoetan utzi beharrean. Aipatutako adibideen artean, hezkuntza-inplementazio handiak eta publikoari begirako segurtasun-tresnak daude. Isil-isilik lagungarritzat aurkezten da, OpenAIren adopzio-estrategia zabalagoa babesten duen arren.

Nola ager liteke OpenAIren plana hezkuntza edo hondamendien erantzuna bezalako zerbitzu publikoetan?

Hezkuntzan, kontzeptua ChatGPT estiloko tresnak dira, eskala handian hedatuta, eskolek IA ikaskuntza-fluxu arruntetan txerta dezaten. Hondamendiei erantzuteko, OpenAI-k urarekin lotutako alerta goiztiarreko sistemak nabarmendu zituen "isil-isilik" dauden azpiegituren adibide gisa. Hari komuna behar den unean ematen den laguntza da, dauden zerbitzuetan txertatutako tresnak erabiliz. Arrakasta, ziurrenik, fidagarritasunaren, gainbegiratzearen eta oinarrizko integrazioaren mende egongo da.

Zergatik esan zuen OpenAI-k Stargate datu-zentroaren eraikuntzarako energia-kostuak estaliko zituela?

OpenAI-k sare elektrikoari eskaera berri izugarria gehituz tokiko elektrizitatearen prezioak ez igotzeko ahalegin gisa aurkeztu zuen. Kostuak estaltzeko, energia-ahalmen berria, biltegiratzea, transmisio-hobekuntzak edo tentsioa arintzen duten beste azpiegitura batzuk finantzatu beharko lirateke. Auzokide onaren aldeko mugimendu gisa eta erresistentzia politiko eta komunitarioari aurrea hartzeko modu gisa kokatzen da. Praktikan, energia-inpaktuak orain IA eskalatzeko planetan erdigunean daudela adierazten du.

Zein dira OpenAI hardwarearen zurrumurru berrienak - benetan sinesgarriak al dira "AI lehenik" entzungailuak?

Txostenak dio OpenAI-k bere lehen gailua 2026an kaleratzea duela helburu, entzungailuak izan daitezkeelarik. Kontzeptua etengabe erabiltzen duzun "IA-lehenengo" eramangarri bat da, ez irekitzen duzun aplikazio bat soilik. Kode-izen baten inguruan hitz egiten da ("Sweet Pea") eta gailuan bertan prozesatzeko asmoa dago, hodeian erabat fidatu beharrean. Ikuspegi horrek interakzioak azkarragoak eta pribatuagoak bihur ditzake, inplementazioaren arabera.

Zer da Anthropic-en “Claude-ren Konstituzio” eguneratua, eta zer aldatzen du?

Claudek eskaerak nola erantzuten, arrazoitzen eta ukatzen dituen moldatzeko diseinatutako balio eta portaera-eredu argitaratua da. Eguneratzeak muga zorrotzagoak azpimarratzen ditu benetan arriskutsuak diren arloetan, hala nola armetan, kalte handietan eta botere-bilaketa jokabidean. Gainera, arau zurrunen ordez, "printzipio" ñabarduratuagoetara jotzen du. Aipagarria da IA ​​aurreratuen moralaren kontua gai ireki gisa tratatzen duela, eta ez erreklamazio finko gisa.

Zein segurtasun eta adimen artifizialaren detekzio funtzio berri gehitu ditu Google-k Workspace for Education-en?

Google-k Workspace for Education-en babes sendoagoak iragarri ditu, besteak beste, IA bidez sortutako edukien detekzioan eta egiaztapenean arreta jarriz. Nabarmentzeko modu bat Gemini aplikazioan IA bidez sortutako irudi eta bideoetarako SynthID-ri lotutako egiaztapena da. Eguneratzeak ransomware detekzioa eta ordenagailuko Drive-rako fitxategiak erraz berreskuratzea ere aipatzen ditu. Oro har, ikasgelan oinarritutako segurtasun-lan gisa kokatzen da, eskolei informazio okerra eta gorabeherak modu eraginkorragoan kudeatzen laguntzeko helburuarekin.

Google-ren Gemini-k iragarkiak erakutsiko al ditu, eta zergatik egin zuen DeepMind-ek iruzkinik ChatGPT-k iragarkiak gehitzeari buruz?

DeepMind-eko zuzendari nagusi Demis Hassabisek berretsi zuen Gemini-k ez duela iragarkietarako “planik” eta harridura agertu zuen ChatGPT-k “hain goiz” iragarkietara jo izanagatik. Mezu horrek Gemini produktu gisa laguntzaile gisa kokatzen du, eta ez kartel gisa laguntzaile gisa. Aldi berean, “planik ez” egoteak etorkizuneko aldaketetarako tartea uzten du, promesa loteslerik egin gabe. Erabiltzaileentzat, kontsumitzaileen adimen artifizialaren laguntzaileen negozio-ereduaren banaketa bat nabarmentzen du.

Zer egin nahi du Alan Turing Institutuaren IA arautzeko gaitasun-esparruak?

Erresuma Batuko erregulatzaileei IA eraginkortasunez gainbegiratzeko gai diren ala ez ebaluatzen laguntzeko arautze-gaitasun esparru eta autoebaluazio tresna bat da. Nahita da ikuspegia glamourrik gabekoa: kontrol-zerrendak, gaitasun faktoreak eta "nolako itxura ona duen" adierazpenak. Helburua gobernantza operatiboa izatea da, ez soilik nahigarria. Arau-betearazpena edo gainbegiratzea areagotu aurretik hutsuneak identifikatu behar dituzten erregulatzaileentzat eta politika-taldeentzat da lagungarriena.

Atzoko IA Berriak: 2026ko urtarrilaren 20a

Aurkitu azken IA AI Laguntzaileen Denda Ofizialean

Guri buruz

Blogera itzuli