Indonesiak Musken Grok IA chatbot-erako sarbidea blokeatu du irudi faltsuengatik ↗
Indonesiak Grok aldi baterako blokeatu zuen baimenik gabeko sexu-irudi faltsuak sortzeko erabili ondoren - emakumeei eta haurrei zuzendutako irudiak barne. Gobernuak giza eskubideen eta segurtasun publikoaren arazo gisa sailkatu zuen, ez eragozpen teknologiko txiki gisa.
Presio puntua laua da: tresna batek benetako pertsonak aginduz “biluztu” baditzake, frogaren zama alderantzikatu egiten da. Plataformek hori eragotzi dezaketela erakutsi behar dute, ez bakarrik horretan pentsatzen ari direla agindu.
Elon Muskek dio Erresuma Batuak adierazpen askatasuna zapaldu nahi duela X-ri debekua egoteko arriskua dagoelako ↗
Erresuma Batuko ministroek isunak jarri zituzten -eta baita X blokeatu ere- Grok baimenik gabe irudi sexual esplizituak sortzeko erabili ondoren. Muskek adierazpen askatasunaren marko ezagunarekin egin zuen atzera... baina Erresuma Batuko jarrera legala "eztabaida klub"etik "betetze epea"ra jaisten ari da
Ofcomi azkar mugitzeko bultzada bat jasotzen ari da, eta legegileek eredu ilun bera seinalatzen ari dira: irudiak zabaldu ondoren, kalteak ez du pazientziaz itxaroten politika eguneratze baten zain.
🧑💻 OpenAI-k kontratistei aurreko lanetatik ateratako benetako lana igotzeko eskatzen die, jakinarazi dutenez ↗
Jakinarazi dutenez, OpenAI-k, prestakuntza-datuen bazkide batekin batera, kontratistei iraganeko (eta egungo) lanetako benetako lan-artefaktuak igotzeko eskatzen die - dokumentuak, kalkulu-orriak, aurkezpenak, biltegiak... Adierazitako helburua bulegoko zereginetan IA agenteak ebaluatzea eta hobetzea da.
Zati itsaskorra agerikoa da, eta pixka bat surrealista: kontratistei informazio sentikorra eurek ezabatzeko esaten zaie. Konfiantza handia da hori abiadura handian doan prozesu batean jartzeko - norbaiti labeko eskularruekin bonba bat desaktibatzeko eskatzea bezala, maitasunez.
🗂️ OpenAI-k kontratistei eskatzen die aurreko lanetako lanak igotzeko IA agenteen errendimendua ebaluatzeko ↗
Beste txosten batek konfigurazio bera aztertzen du eta zergatik kezkatzen dituen pribatutasun eta jabetza intelektualaren abokatuak. Denak fede onez jokatzen ari badira ere, "gauza konfidentzialak kendu" argibide leuna da benetako enpresa-dokumentuak lantzen direnean.
Estrategia handiagoaren zantzuak ere ematen ditu: IA agenteak ez dira kopiloto hiztunak soilik, benetako lanaren errealitate korapilatsu eta fitxategi anitzekoa imitatzeko trebatzen ari dira. Praktikoa, bai. Baita ere pixka bat... ai ene!.
🏦 Allianz eta Anthropic aseguruen arloan adimen artifizial arduratsua sustatzeko lankidetza globala sinatu dute ↗
Allianz eta Anthropic-ek hiru arlotan oinarritutako lankidetza global bat iragarri dute: langileen produktibitatea, eragiketa-automatizazioa AI agentearen bidez eta diseinuaren araberako betetzea. Asegurua hortzak dituen paper-lana da, beraz, "agentea" hemen funtsean lan-fluxu konplexuak automatizatzea esan nahi du auditoria-aztarnak galdu gabe.
Giroa hauxe da: egin automatizazio polita, baina gorde ordainagiriak. Araututako industriatan, hori da eskalatzeko modu bakarra erantzukizunen piñata bihurtu gabe.
🕵️♂️ Adierazpena Grok AI-ri X-n erantzunez ↗
Erresuma Batuko datuen babeserako erregulatzaileak dio X eta xAI-rekin harremanetan jarri dela datu pertsonalak nola kudeatzen eta pertsonen eskubideak nola babesten dituzten argitzeko, Grok-ek sortutako edukiaren inguruko kezkak kontuan hartuta. Ez da soilik "edukiaren moderazioa", baizik eta pertsonen datuak legez prozesatzen ari diren eta eskubideak babesten ari diren ere.
Hau da adeitsua dirudien araudi-mugimendu mota, eta gero, isilean, oso serio bihurtzen dena erantzunak lausoak edo iheskorrak badira... edo biak.
Maiz egiten diren galderak
Zergatik blokeatu zuen Indonesiak Grok AIrako sarbidea?
Indonesiak Grok aldi baterako blokeatu zuen, baimenik gabeko sexu-irudi faltsuak sortzeko erabili zela jakinarazi ondoren, emakumeei eta haurrei zuzendutako irudiak barne. Agintariek giza eskubideen eta segurtasun publikoaren arazo gisa aurkeztu zuten neurria, ez teknologia-gatazka txiki gisa. Oinarrizko mezua da "geroago konponduko dugu" ez dela nahikoa tresnak berehalako eta itzulezin kalteak eragin ditzaketenean.
Zer ari da kontuan hartzen Erresuma Batua Grok-ek sortutako deepfake-ak X-n agertu ondoren?
Erresuma Batuko ministroek isunak publikoki eztabaidatu zituzten, eta baita X blokeatzeko aukera ere, Grok baimenik gabe irudi sexual esplizituak sortzeko erabili ondoren. Tonu politikoa eta arautzailea betetze betearazlearen aldera aldatzen ari da, ez eztabaida irekiaren aldera. Legegileek behin eta berriz aipatzen duten puntua denbora da: irudiak zabaldu ondoren, biktimek kalteak jasaten dituzte plataformek politika eguneratuak argitaratu baino askoz lehenago.
Zer esan nahi du erregulatzaileek IA irudi tresnen "frogaren zama iraultzen" dutenean?
«Frogaren zamaren alderantzikapenaren» ideia da plataformek kalte zehatzak saihestu ditzaketela erakutsi behar izatea —adibidez, baimenik gabeko «biluzte» irudiak sortzea—, babes-neurriak agindu beharrean. Praktikan, horrek enpresak kontrol frogagarrietara, betearazpen neurgarrietara eta hutsegiteen kudeaketa argira bultzatzen ditu. Era berean, adierazten du «asmoa» emaitza ukigarriak eta errepika daitekeen prebentzioa baino gutxiago axola duela.
Nola murriztu dezakete plataformek IA bidez sortutako baimenik gabeko deepfake-en arriskua?
Ohiko ikuspegia prebentzio geruzatua da: benetako pertsonei lotutako eskaerak eta irteerak mugatu, "biluzteko" estilo eskaerak blokeatu eta baimenik gabe irudi sexualizatuak sortzeko saiakerak detektatu eta geldiarazi. Hodi askok abiadura mugak, identitate eta abusu jarraipen sendoagoa eta edukia zabaltzen denean kentzeko lan-fluxu azkarrak gehitzen dituzte. Helburua ez da politika hizkuntza soilik, baizik eta aurkarien erabilerari eusten dioten tresnak.
Zergatik ari dira alarmak pizten OpenAI-ren kontratisten benetako lan-dokumentuen igoerak?
Txostenek diotenez, OpenAI-k (prestakuntza-datuen bazkide batekin) kontratistei benetako lan-artefaktuak igotzeko eskatzen die -dokumentuak, kalkulu-orriak, bildumak eta biltegiak- bulegoko zereginetako IA agenteak ebaluatu eta hobetzeko. Kezka da kontratistei xehetasun sentikorrak eurek ezabatzeko esaten zaiela, eta horrek akatsak sor ditzake. Pribatutasun eta jabetza intelektualaren abokatuek kezkatzen dute "gauza konfidentzialak kentzeko" argibide hau anbiguoegia dela benetako enpresa-materialetarako.
Zer garrantzi du Allianzek Anthropicekin lankidetzan aritzeak aseguruen arloan "IA agentea" lantzeko?
Allianz eta Anthropic-ek langileen produktibitatean, agenteen bidezko IA erabiliz eragiketa-automatizazioan eta diseinuaren araberako betetzean oinarritutako lankidetza global bat deskribatu zuten. Aseguru-fluxuak konplexuak eta oso arautuak dira, beraz, "agenteak" askotan urrats anitzeko prozesuak automatizatzea esan nahi du erantzukizuna galdu gabe. Auditoria-aztarnak eta "ordainagiriak gordetzea" azpimarratzeak errealitate praktiko bat islatzen du: automatizazioa eskalatzen da araututako industriatan ikuskagarria eta defendagarria denean bakarrik.