🦞 OpenClaw-en sortzailea den Steinberger OpenAI-rekin bat egiten du, kode irekiko bot bat fundazio bihurtzen da ↗
Peter Steinberger OpenAIra doa "agente pertsonalak" bultzatzeko, OpenClaw bera fundazio batean kokatuta dagoen bitartean, kode irekikoa (eta babestua) izaten jarraitzeko. Banaketa hori... nahiko azkarra da: eraikitzailea kontratatu, proiektua publiko mantendu.
OpenClaw-en proposamena oso praktikoa da: posta elektronikoaren sailkapena, aseguruen paperak, hegaldien fakturazioa, bizitzako administrazio-zeregin gogaikarriak. GitHub-en ere lehertu egin da, eta ospea horrek segurtasun-kezkak eragin ditu, batez ere jendeak arduragabetasunez erabiltzen badu.
🪖 Pentagonoa "nazkatuta" dago Antropiarekin Claude IA eredua militarrek erabiltzearen aurrean egindako erresistentziarekin, eta harremanak eten ditzake, txosten baten arabera ↗
Borroka nagusia: Pentagonoak sarbide zabala nahi du, “helburu zilegi guztietarako”, eta Anthropic-ek oraindik muga zorrotzak mantentzen saiatzen ari da arma guztiz autonomoei eta zaintza masiboari dagokionez. Filosofikoa dirudien desadostasun mota da, norbaitek “agian ordezkatuko zaitugu” esan arte
Gutxietsitako zimur bat - funtzionarioek ez dute nahi ereduak lan-fluxuak bat-batean blokeatzea bide erdian, eta ez dute nahi kasu ertz-mugak betiko negoziatu (bidezkoa da... baina baita ere ai ene). Benetako tentsioa dago hemen "nork ditu giltzak" inguruan, eta ez da sotila.
🧠 Giza portaera aurreikusteko startup-en eraikuntza-eredua ↗
Similek 100 milioi dolarreko finantzaketa-txanda bat lortu zuen jendeak zer egin dezakeen aurreikusteko helburuarekin "ikaskuntza mugatuko" eredu bat eraikitzeko, besteak beste, irabazien deialdietan bezalako gauzetan litekeena diren galderak aurreikustea barne. Helburu estua, anbizio handia, konbinazio apur bat beldurgarria.
Ikuspegiak benetako pertsonekin egindako elkarrizketetan eta portaeraren ikerketa-datuetan oinarritzen da, eta ondoren, benetako lehentasunak islatzeko diseinatutako IA agenteekin simulazioak egiten ditu. Giza erabakietarako eguraldi-eredu bat egitea bezala da... ezinezkoa dirudiena ezinezkoa ez den arte.
🧑⚖️ Ezaguna: Etxe Zuriak Utahko legegileari presioa egiten dio IA gardentasun legea bertan behera uzteko ↗
Utah-n estatu mailako IA gardentasunaren aldeko apustua Etxe Zuriaren presio zuzena jasotzen ari da, funtzionarioek lege-proiektuaren sustatzaileari aurrera ez egiteko eskatuz. Lege-proiektuaren egitura gardentasunari eta haurren segurtasunari buruzkoa da, eta zaila da ikuspegi hutsetik eztabaidatzea.
Baina borroka handiagoa jurisdikzionala da: nork ezartzen ditu arauak, estatuek edo gobernu federalak. Eta bai, marmar bat da - bi pertsona bolante bera hartu eta lasai daudenak direla azpimarratzen duten bezala.
🎬 ByteDance-k Disneyren mehatxuaren ondoren, IA bideo tresnan baimenik gabeko IP erabilera eragotziko duela hitzeman du ↗
Disneyk ByteDance-ren AI bideo-sorgailuaren aurkako eten-agindua bidali zuen, eta ByteDance-k dio babes-neurriak indartzen ari dela jabetza intelektualaren eta antzekotasunaren baimenik gabeko erabilera saihesteko. Kexa -ustez- tresnak frankiziako pertsonaia ezagunak bota ditzakeela da, domeinu publikoko eranskailuak balira bezala...
Denek aurreikusitako talka da: IA bideo tresna biralak azkar mugitzen dira, estudioek auzitara eramaten dute, eta "babesak gehituko ditugu" barkamen hizkuntza bihurtzen da. Bira batean, teknologiak magia dirudi - eta alde legalak grabitatea.
Maiz egiten diren galderak
Zer esan nahi du OpenClaw-en sortzailea OpenAI-n sartu izanak, OpenClaw fundazio batera joan zen bitartean?
"Agente pertsonalak" eraikitzen dituen pertsonaren eta proiektua publikoki gobernatuta mantentzen den arteko banaketa adierazten du. Steinberger OpenAI-rekin bat egiteak iradokitzen du agente estiloko produktuak bertan sustatzean zentratuko dela. OpenClaw fundazio batean jartzeak kode irekikoa eta modu iraunkorrean babestua mantentzea du helburu. Praktikan, mugimenduak komunitatearen konfiantza mantentzea du helburu, eraikitzailea baliabideak dauden lekura joaten den bitartean.
Zergatik daude OpenClaw estiloko IA agenteak posta elektronikoa eta paper-lanak bezalako lanetan zentratuta?
"Bizitza administratiboa" den lana errepikakorra, arauetan oinarritua eta denbora asko eskatzen duena delako, automatizazioaren helburu praktiko bihurtzen da. Hemen dauden adibideak - posta elektronikoaren sailkapena, aseguruen paperak eta hegaldien fakturazioa - arrakasta-irizpide argiak dituzten zeregin mugatuak dira. Foku horrek agenteak laguntzaile irekiagoak baino lehenago baliotsu sentiarazi ditzake. Era berean, azpimarratzen du zergatik diren garrantzitsuak sarbide-kontrol zainduak agenteek kontu pertsonalak ukitzen dituztenean.
Nola zabaldu dezakezu OpenClaw bezalako IA agente ireki bat segurtasun arazorik sortu gabe?
Tratatu datu sentikorrak ikus ditzakeen software gisa, ez jostailuzko script bat bezala. Ohiko ikuspegia kredentzialak blokeatzea, baimenak gutxienekora mugatzea eta erregistroak eta auditoria-aztarnak gordetzea da. Exekutatu ingurune mugatu batean eta bereizi balio handiko sistemetatik. Segurtasun-kezka asko inplementazio arduragabetik sortzen dira, batez ere jendeak amaiera-puntuak edo tokenak babes sendorik gabe agerian uzten dituenean.
Zergatik dago Pentagonoa pozik Anthropic-ek Clauderi erabilera militarrerako ezarritako murrizketekin?
Eztabaida irismenean eta kontrolan oinarritzen da: Pentagonoak "helburu zilegi guztietarako" sarbide zabala nahi du, eta Anthropic-ek, berriz, arma guztiz autonomoen eta zaintza masiboaren inguruko muga zorrotzak mantentzen dituela deskribatzen da. Funtzionarioek ez dute nahi modeloek lan-fluxuak erdibidean blokeatzea edo kasu mugagabeen negoziazio amaigabeak behar izatea. Tentsio hori ez da hain abstraktua dirudiena baino: nork erabakitzen du zer egin dezakeen modeloak benetako eragiketetan da kontua.
Nola saiatzen ari dira startup-ak giza portaera aurreikusten IA erabiliz, eta zergatik iruditzen da polemikoa?
Hemen dagoen adibidea, Simile, "ikaskuntza mugatua" eredu bat jarraitzen ari da, jendeak zer egin dezakeen aurreikusteko helburuarekin, besteak beste, irabazien deialdietan gerta daitezkeen galderak aurreikustea. Deskribatutako ikuspegiak elkarrizketak ikerketa-jokabidearen datuekin eta simulazioekin konbinatzen ditu, benetako lehentasunak islatzeko diseinatutako IA agenteak erabiliz. Beldurgarria da, IAk pertsonei erantzutetik aurreikustera aldatzen duelako. Erronka baieztapenak mugatuta mantentzea eta gehiegizko konfiantza saihestea da.
Zer gertatzen da IA bideo tresnek copyrighta duten pertsonaiak sortzen dituztenean, ByteDance eta Disney arteko liskarrean bezala?
Jakinarazitako eredua ezaguna da: estudio batek eten eta desegiteko agindua ematen du, eta plataformak babes-neurriak indartuz erantzuten du, baimenik gabeko IP edo antzekotasunen erabilera saihesteko. Tresna askotan, babes-neurriek eduki-iragazki zorrotzagoak, pertsonaia ezagunen detekzio hobea eta erabiltzaileen gidalerroen betearazpen argiagoa esan nahi dute. Oinarrizko gatazka abiaduraren eta erantzukizunaren artekoa da: birusen sorkuntza azkar mugitzen da, eta eskubideen betearazpenak grabitatea bezala jokatzen du. Espero talka gehiago bideo-sortzaileak hedatu ahala.