Orain urte bi kaleratu zen GPT-3ak erakutsi zigun gizaki baten antzera elkarrizketa bat jarraitzera nahiko hurbiltzen zela, sistema honetan oinarritzen den eta modan dagoen ChatGPTk edo Dall-ek erakutsi diguten bezala. Abenduan, GPT-3.5a aurkeztu zuten, beste aurrerapauso bat izan zen. Jarraitzen duen modeloa, aurreko bertsioaren berdina da: esaldi, hitz eta hitzen zatien arteko erlazioak ikasten ditu sareko eduki kantitate ikaragarrietatik elikatuz, wikipedia, sare sozialak eta berrien artikuluak, besteak beste. Baina egileen arabera, bertsio honetan, hobeto moldatzen da testuingurua ulertzen eta gutxiago “haluzinatzen” duela diote (horrela deritzote adimen artifizialean funtsik gabeko edo oker garbiak diren baieztapenak idazteari).
Frogetan, GPT-3.5 bere aurreko bertsioa baino hobeagoa suertatu da blog postak, edo abesti eta poesiak idazterakoan, eta gatzdunagoa ere bada txisteak kontatzen.
Baina, elikatzeko modua berdina bada, non da diferentzia? OpenAI-n ez dute erantzunik eman, baina badirudi programa entrenatzeko metodologian dagoela. Antza denez, hasierako bertsioetan gizakiak egon ziren entrenamenduan parte hartzen, erantzunak baliozkotzen eta ebaluatzen. Feedback hau sistemara sartu zuten, zeinak bere erantzunak entrenatzaileen erantzunetara egokitu zituen algoritmoak hobetzeko.
Hasita daude hurrengo bertsioan lanean, eta badirudi GPT-4 urte honen amaierarako edo hurrengoaren hasierarako prest egongo dela. Adituen arabera, bertsio honek jorratuko duen bidea hizkuntza prozeduren ildotik joango da, bai eta gizaki-makina trebakuntzatik, eta ez hainbeste arakatuko duen informazio kopurua handitzearen alorretik. Izan ere, datuen bilketa oso garestia da, bai energian bai dirutan ere. AI21 Labs-en 2020ko ikerketa baten arabera, 1.500 miloi parametro dituen sistema bat garatzearen kostua 1,6 miloi dolarrekoa da, eta GPT-3k 175.000 miloi inguru ditu (parametroak, entrenamenduan erabilitako datuen kopuruarekin lotuta daude).
OpenAI-k 1.000 miloi inguru jaso du inbertitzaile desberdinetatik, tartean Microsoft, baina noski, hauek ere itzulkinak nahi izango dituzte… Dagoeneko abian dituzte ordainpeko zerbitzuak, ChatGPT “premium” zerbitzu bat adibidez, eta Microsoftek GPT-3.5, Codex, DALL-E 2 eta ChatGPT-a bera euren Azure-n txertatuko dituela aurreratu du.
Honek, bere erabilpena asko zabalduko du, eta laster hainbat aplikazioetan ikusi ahal izango dugu. Baina zein izango ote da hurrengo urratsa? Erabilera hau esklusiboa izango da? Norena da libreak diren datuetatik (wikipedia kasu) elikatzen diren adimen artifizial hauek sortzen duten edukia? Eta beste alde batetik, besoak antxumatuta geldituko al dira Google eta Amazon?
Askok zalantzan jartzen dute adimen artifizialek sormenerako duten gaitasuna. Pertsona hauentzako datu mordoa bildu eta hori kopiatu baino ez dute egiten, baina ez al dira artistak ere aurrekoek egin dutenaz elikatzen eurena, propioa, sortzeko?