Zer datorkizu burura Adimen Artifizialari edo AI (Artificial Intelligence)-ari buruz aritzerakoan? Adimen artifiziala, berez, gizaki edo animalia baten garunetik at dagoen adimen mota da. Hala ere, definizio hori ez da guztiz erreala, adimen hori norbaitek eratu behar baitu eta norbait hori gizakia bera izanen da. Gizakion adimena, urteetan zehar garatzen den zerbait da, baina, nola eratu daiteke gailu bati emateko adimena?

Duela urtebete eskas, disrupzio teknologiko handiena metabersoa eta Web3 baziren ere, gaur egun, ordea, adimen artifiziala dela esan genezake, Fundéuk eta Real Academia Españolak, urteko adierazpen gisa aukeratu baitute. AI edonolako gauzak sortzetik haratago dagoen sistema da eta eguneroko bizimoduan sarritan erabiltzen dugu. Telefonoa desblokeatzerako orduan, aurpegia erakusten dugunetik hasi eta online erosketa bat egin arte, AI erabiltzen ari gara. Gure egunerokotasunaren txoko guztiak bete ditu ia konturatu gabe.

 

Adimen Artifiziala lanean, hezkuntzan eta eguneroko jardunetan

Adimen Artifiziala bere baitan duten tresnak anitzak dira eta horien artean, hain ezaguna den ChatGPT, edota Jasper.ai/art, repurpose.io, Uizard.io eta SEO.ai aurkitzen dira, besteak beste. Guzti horiek lan-arloan, hezkuntzan, zein eguneroko errutinan oso erabilgarriak izan daitezkeen erremintak dira. Adibidez, hainbestetan entzun dugun Chat GPT, Minesotako Unibertsitateko zuzenbide-fakultateko eta MBA (Master of Business Administration) programa bateko azterketen bidez bere eginkizuna frogatu dute.

Halere teknologia horrek arrisku ugari izan ditzake. Gero eta enpresa gehiagok, hala nola BCG, uste dute teknologia horren eta horren ondoriozko industriaren etorkizuna autorregulazioan, etika eta gardentasun estandarretan dagoela.

 

Zibersegurtasunari dagozkion arriskuak

Aurreikusi daitekeenez, zibersegurtasunari dagokionez, horrelako erremintek arrisku handiak eragin ditzakete. Stanfordeko Unibertsitateko ikertzaileek abenduaren 16an argitaratu zuten txostenean batzen denez, ikertzaileek programatzaileek adimen artifizialeko laguntzaileak aktiba ditzaketen jakiteko esperimentu bat egin zuten. Horretarako, ikertzaileek AI erremintak erabili zituzten kodea egiten laguntzeko; erreminta horien artean aurkitzen ziren Copilot edo ChatGPT, besteak beste. Horren emaitza da kodea AI batek programatzerakoan bere segurtasuna askoz ere baxuagoa dela. Frogatzeko, ChatGPTrekin proba bat egin zen, webgune bat autentifikatzeko PHPko prozedura batean SQL Injection bat jaten den ikusteko. Emaitza argia izan zen; kodeak ez zituen SQL Injectionek kontsultan sartuko zituen bug-ak iragazi eta horrenbestez, ez zuen inolako babes ezta segurtasun koderik.

Beste adibide bat jartzearren, hurrengoko hau. Pedofiloak adimen artifiziala erabiltzen ari dira haurren irudi guztiz errealistak sortzeko, sare sozialetan beste batzuekin partekatu ahal izateko. Irudiak sortzeko azken programez baliatu dira abusatzaileak, fantasiak egia bihurtzeko. Eta, kasu batzuetan, perbertituak haratago joan dira, “deepfake” teknologiarekin esperimentatuz, bizitza errealeko gazteen aurpegiak eta AI informatiko batek sortutako gorputz biluzietan haurrentzako aktoreak itsasteko, agintarien arabera.

 

Laguntzazkoa izan daiteke zibersegurtasunarentzako

Arriskuek eragin handiak izan dezaketen arren, onurak ere izan ditzakete zibersegurtasunaren munduan. Adimen Artifizialak eragin handia izan dezake zibersegurtasun-konponbideetan eta irtenbide profesionaletan.

Zibersegurtasuneko profesionalei lan asko, datu gehiegi, denbora falta eta trebetasun gutxi ematen zaizkie, eta, beraz, AIk eragin handia izan dezake ITko gerenteentzat. Horri esker, mehatxuak zehaztasunez detektatu ahal izango dituzte, erantzuna automatizatu eta erasoen ikerketa bizkortu. Horren adibide dira AIk zibersegurtasunean oinarrituta sortutako hurrengo aplikazio hauek:

  • Ahultasunen kudeaketa: User and Event Behavioral Analytics (UEBA)-k zibererasoen jarduera adierazten duten portaera anomaloak identifikatzen laguntzen du, baita ahultasunak zuzentzeko adabakiak izan aurretik ere.
  • Data center: Funtsezko datuak prozesatzeko zentroak optimizatzen eta monitorizatzen laguntzen du, ezohiko portaeren mehatxuak detektatzen laguntzeaz gain.
  • Segurtasuna sareetan. AIk aukera ematen du sareko trafikoaren portaera-ereduak ikasteko eta lan-kargak bateratzea gomendatzeko, bai eta segurtasun-politikak aplikatzeko ere.
  • Erabiltzaileen identifikazio segurua: zerbitzuetara sartzen diren erabiltzaileak babesteko eta erabili behar diren elementuak babesteko. Identitate faltsuen edo indar gordineko erasoen erabilera identifika dezake.
  • Informazioaren pribatutasuna eta konplizitatea. AIk informazioa bere kritikotasun-mailaren arabera automatikoki sailkatzen laguntzen du. Horrek esan nahi du gaur egun eskuz egiten diren ahaleginetan aurreztea, horrek dakartzan arriskuak saihestuz.
  • Bot-ak blokeatzea haien portaeraren arabera. Benetako bezeroen erabiltzaile-esperientzia kaltetzen du. AIk aukera ematen du bisitari horien jarduerak sailkatzeko, haien ekintza mugatzeko.

Gustatu ala ez, ChatGPT eta belaunaldi berriko AI ereduak gelditzeko etorri dira, eta horrek erronka berri bat planteatzen digu: Aldaketarekiko eta etortzear dagoenarekiko beldurra izan dezakegu, edo aldaketara egokitu gaitezke, eta modu holistikoan hartzen dugula ziurta dezakegu, estrategia iraingarria zein defentsiboa aplikatuz. Click To Tweet

Erasoaren ikuspegitik, langileak produktiboagoak izateko eta enpresak erabaki hobeak hartzeko erabil dezakegu. Defentsaren ikuspegitik, estrategia bat jarri behar dugu martxan, gure erakundeak eta langileak teknologia berri horren ondorioz sortzen diren segurtasun-arriskuetatik babesteko. Horretarako, AIk gaitutako aktore txarren aurka babesteko politikak, prozedurak eta protokoloak eguneratu behar dira.