Ima li akademske etike nakon dolaska umjetne inteligencije?

Naslovnu ilustraciju stvorila je umjetna inteligencija - DALL-E generator fotografija

Kako će umjetna inteligencija mijenjati novinarstvo i sadržaj koji redakcije nude čitateljima, gledateljima i slušateljima? Kako će utjecati na svakodnevni život ljudi?

To smo pitanje postavili petero autora, u vrijeme dok se Europska unija priprema za izbore, jača borbu protiv dezinformacija te privodi kraju rad na prvom svjetskom zakonu o umjetnoj inteligenciji.

Za projekt “Što nam radi UI” pišu i govore: Ivan Pandžić (24sata), Ivana Dragičević (N1), Ante Tomić (Jutarnji list), Dora Kršul (Telegram) i Martina Validžić (HRT). Projekt Sindikata novinara Hrvatske podržao je Ured Europskog parlamenta u Hrvatskoj.

Evo što o umjetnoj inteligenciji i njezinu utjecaju na akademsku etiku piše novinarka portala Telegram.hr, Dora Kršul.

Kakva je budućnost akademskog pisanja – i postoji li ona uopće – nakon pojave velikih jezičnih modela temeljenih na umjetnoj inteligenciji, poput Chat GPT-ja? Ako postoji alat koji piše eseje, seminare i cijele radove brže i počesto bolje od pojedinih znanstvenika upitne kvalitete, što to može značiti za već uzdrmanu akademsku etiku?

Hoće li znanstvenici – i studenti – uopće više pisati svoje radove? Lavina sličnih pitanja zakotrljala se pojavom i masovnijom upotrebom već spomenutog Chat GPT-ja. Gdje smo, međutim, danas i što se u (akademskoj) praksi promijenilo zbog umjetne inteligencije? Malo toga, jer na ovdašnjim sveučilištima, fakultetima i institutima sustavnog pristupa i dalje nema.

Raznovrsni su benefiti umjetne inteligencije koji znanstvenicima mogu pomoći tijekom istraživanja, no oni se ne mogu uzeti zdravo za gotovo pa je ljudski faktor apsolutno presudan u korištenju. Apostrofiraju tako Telegramovi sugovornici, viša znanstvena suradnica u Institutu za društvena istraživanja u Zagrebu Marija Brajdić Vuković te Kosta Bovan, izvanredni profesor Fakulteta političkih znanosti.

Trenutak u koji je uletio AI

S Brajdić Vuković, inače voditeljicom važnog projekta Hrvatske zaklade za znanost o društvenoj odgovornosti i profesionalnoj etici hrvatskih istraživača, komentiramo utjecaj umjetne inteligencije na znanstvenu produkciju. Ona je uletjela, ističe, u razvojni trenutak znanosti koji je problematičan sam po sebi.

“Govorimo o hiperprodukciji radova uzrokovanoj sustavima evaluacije u znanosti koji su pogonjeni kvantitativnom metrikom, odnosno pritiskom na što brže i češće objavljivanje u visoko citiranim publikacijama”, ocrtava. Pa se koautorstva, nabraja, dodjeljuju onima koji jesu i nisu radili na radovima, maksimizira se broj objavljenih radova tako da se rezultati podijele na najmanje moguće objavljive dijelove, strateški se citiraju radovi koji povećavaju šansu objave u određenom časopisu…

Važnost ljudskog faktora

U takvom znanstvenom okolišu, naglašava Telegramova sugovornica, atrofira etika jer ljudski faktor često zakazuje. U ovu računicu složene znanstvene zbilje sada valja ukalkulirati i umjetnu inteligenciju. Nerijetko se dogodi, veli Brajdić Vuković, da umjetna inteligencija napiše dio rada, a potom umjetna inteligencija koja testira je li rad plagiran – ne prepoznaje problem.

“Ako urednik časopisa i recenzenti ne odrade svoj posao dobro, događaju se apsurdne situacije u kojima tek čitatelji iz akademske zajednice ukazuju na vrlo očito korištenje umjetne inteligencije u pisanju rada”, opisuje svu složenost ovog problema.

Trenutačno stanje u ovom području opisuje vrlo kaotičnim, među ostalim i zbog iznimno neujednačene prakse. Stoga je važno, kaže, na razini znanstveno-istraživačkih institucija pokušati razgovarati i postići konsenzuse o tome što je (ne)prihvatljivo.

‘Super početna točka’

Profesor Bovan na Fakultetu političkih znanosti studentima predaje kolegij “Političko ponašanje”, a na doktorskom studiju drži “Uvodni metodološki seminar”. Sam se, kaže, interesirao i informirao o umjetnoj inteligenciji i testirao ChatGPT, da provjeri kako će funkcionirati s opisivanjem određenih pojmova.

Zatražio je, konkretno, da mu opiše pojam političkog povjerenja, odnosno temeljne pozicije u tom smislu. “Moram reći da je to dobro napravio. Mislim da može napisati jedan smislen komadić teme kojom se bavim. Dapače, može to napisati i puno ljepše od mene. Razina teksta koju je izbacio je super za nekoga tko o temi ne zna ništa pa mu to može biti izvrsna početna točka”, opisuje nam.

Proces koji stoji iza pisanja

Osvrćemo se na eventualnu studentsku upotrebu umjetne inteligencije. Na kolegijima koje predaje, kaže, ključno mu je da studente nauči procesu koji stoji iza samog pisanja. “Važniji mi je proces u kojem uče kako razraditi argument, iščitati literaturu, pristupiti različitim teorijskim i empirijskim pozicijama te da iz toga nešto zaključe”, kaže.

Jednog je studenta, međutim, uhvatio u nedopuštenom korištenju ChatGPT-ja. U eseju je naveo nepostojeće reference, odnosno tekstove kojima se tobože služio. “Kada sam to primijetio, zamolio sam kolegu da mi pošalje navedene tekstove i, jasno, odgovor nikada nisam dobio”, prepričava Bovan.

Rješenje, međutim, ne vidi u hvatanju studenata jesu li koristili ove alate. “Mislim da je nužno da se prilagodimo tehnologiji i razvijamo vlastita znanja i različite vještine. Apsolutno ključni moraju biti kritički osvrti i razumijevanje da ono što izbaci umjetna inteligencija nije nužno točno, da ona može biti pristrana, davati pogrešne rezultate koje je važno kritički sagledavati”, napominje.

Razvoj znanstvenog razmišljanja

I Bovan i Brajdić Vuković pritom ne dvoje o velikom potencijalu umjetne inteligencije u znanstveno-istraživačkom radu. “Doslovno se može koristiti kao asistent koji u vrlo kratkom vremenu može napraviti ono za što ljudima trebaju mjeseci”, kaže znanstvenica zagrebačkog Instituta pa među ostalim navodi analizu podataka, sumiranje i pretraživanje literature, prolaženje kroz obimne setove podataka kojima će naći zajednički nazivnik…

No na koncu, ističe, ipak ostaje pitanje kako odnos s umjetnom inteligencijom utječe na kapacitet znanstvenika da razvija svoje znanstveno razmišljanje. Nešto više o tome saznat ćemo uskoro, kroz prvo ovdašnje istraživanje profesionalne etike u znanosti nakon 30 godina, koje Brajdić Vuković vodi pod okriljem Zaklade za znanost.

‘Muljatori će zvučati smislenije’

“Ako bih morala predviđati, rekla bih da očekujem da prakse neetičnog i upitno etičnog ponašanja povezane s korištenjem umjetne inteligencije ukupno nisu toliko proširene i izrazite koliko bi mogle biti. Pogotovo zato što u Hrvatskoj pritisak na objavljivanje rijetko doseže pritisak kakav je na velikim međunarodnim sveučilištima”, zaključuje Brajdić Vuković.

Bovan pak predviđa kako će se pokazati da je umjetna inteligencija došla na volej autorima tekstova loše kvalitete. Slikovit je u zaključku: “Cijeloj masi znanstvenih muljatora, koji muljaju s lokalnim časopisima i plaćaju im da ih objave, ovo će samo ubrzati i olakšati proceduru. Sada će samo zvučati smislenije, to je problem”.

Dora Kršul, novinarka Telegram.hr

A dok ste nam još tu…

Evo nekoliko aktualnosti o pokušaju Europske unije da postavi globalni standard donošenjem prvog zakona o reguliranju umjetne inteligencije na svijetu:

Zastupnice i zastupnici Europskog parlamenta 13.3.2024. odobrili su Akt o umjetnoj inteligenciji, koji jamči sigurnost i zaštitu temeljnih prava te istodobno potiče inovacije.

Uredba dogovorena na pregovorima s državama članicama u prosincu 2023. usvojena je s 523 glasova za, 46 protiv i 49 suzdržanih.

Cilj joj je zaštititi ljudska prava, demokraciju, vladavinu prava i okolišnu održivost od visokorizične umjetne inteligencije, a istodobno poticati inovacije i osigurati Europi ulogu predvodnika u tom području. Pravila za umjetnu inteligenciju utvrđena su na temelju njezinih potencijalnih rizika i razine učinka.

Zabranjene primjene

Novim pravilima zabranjene su određene primjene umjetne inteligencije koje ugrožavaju prava građana, uključujući sustave za biometrijsku kategorizaciju temeljene na osjetljivim karakteristikama i neciljano prikupljanje prikaza lica s interneta ili iz nadzornih snimaka radi stvaranja baza podataka za prepoznavanje lica. Zabranjuje se i prepoznavanje emocija na radnome mjestu i u školama, vrednovanje građana, prognostički rad policije (kad se temelji isključivo na izradi profila pojedinaca ili procjeni njihovih osobina) te umjetna inteligencija koja utječe na ljudsko ponašanje ili iskorištava ranjivost pojedinaca.

Iznimke za potrebe kaznenog progona

Upotreba sustava za daljinsku biometrijsku identifikaciju u svrhu kaznenog progona u načelu je zabranjena, osim u okolnostima koje su iscrpno navedene i precizno definirane. Daljinska biometrijska identifikacija u stvarnom vremenu može se koristiti samo ako su ispunjeni strogi zahtjevi, npr. njezina je upotreba vremenski i geografski ograničena te je za nju prethodno izdano posebno sudsko ili upravno dopuštenje. Neki od primjera takvih okolnosti su ciljana potraga za nestalom osobom ili sprečavanje terorističkog napada. Naknadna upotreba sustava za daljinsku biometrijsku identifikaciju smatra se visokorizičnom upotrebom i za nju je potrebno sudsko dopuštenje povezano s kaznenim djelom.

Obveze za visokorizične sustave

Predviđene su i jasne obveze za druge visokorizične sustave umjetne inteligencije (zbog njihova znatnog potencijala za ugrožavanje zdravlja, sigurnosti, temeljnih prava, okoliša, demokracije i vladavine prava). Visokorizična umjetna inteligencija upotrebljava se, među ostalim, za kritičnu infrastrukturu, obrazovanje i osposobljavanje, zapošljavanje, ključne privatne i javne usluge (npr. zdravstvo, bankarstvo), određene sustave u okviru kaznenog progona, upravljanje migracijama i granicama, pravosuđe i demokratske procese (npr. utjecanje na izbore). Za takve sustave treba osigurati procjenu i ublažavanje rizika, vođenje evidencije upotrebe, transparentnost i preciznost te ljudski nadzor. Građani će imati pravo podnijeti tužbu povezanu s umjetnom inteligencijom te dobiti objašnjenja odluka temeljenih na visokorizičnim sustavima umjetne inteligencije koje utječu na njihova prava.

Zahtjevi za transparentnost

Sustavi umjetne inteligencije opće namjene i modeli na kojima se temelje moraju zadovoljavati određene kriterije transparentnosti, uključujući usklađenost sa zakonom EU o autorskim pravima i objavljivanje detaljnih sažetaka sadržaja koji se koristi za obuku. Snažniji sustavi umjetne inteligencije opće namjene koji bi mogli predstavljati sistemske rizike podlijegat će dodatnim zahtjevima koji uključuju ocjenjivanje modela, procjene i ublažavanje sistemskih rizika te prijavljivanje incidenata.

Uz to, umjetno stvoreni ili manipulirani audiosadržaji, fotografije i videosadržaji (deepfakes) moraju biti jasno označeni kao takvi.

Poticanje inovacija te malih i srednjih poduzeća

Treba uspostaviti regulatorno izolirano okruženje i testiranje u stvarnim uvjetima na nacionalnoj razini te omogućiti start-up poduzećima te malim i srednjim poduzećima pristup istima kako bi mogla razvijati i trenirati inovativne sustave umjetne inteligencije prije njihova stavljanja na tržište.

Sljedeći koraci

Uredbu još trebaju pregledati pravnici lingvisti, a očekuje se da će biti donesena prije kraja parlamentarnog saziva (u tzv. postupku ispravka). Vijeće ju također treba službeno podržati.

Stupit će na snagu dvadeset dana nakon objave u Službenom listu Europske unije i počet će se primjenjivati 24 mjeseca nakon stupanja na snagu, osim zabranjenih primjena (šest mjeseci nakon stupanja na snagu), kodeksa prakse (devet mjeseci nakon stupanja na snagu), pravila za umjetnu inteligenciju opće namjene uključujući upravljanje (12 mjeseci nakon stupanja na snagu) i obveza za visokorizične sustave (36 mjeseci nakon stupanja na snagu).

Kontekst

Zakon o umjetnoj inteligenciji izravno odgovara na prijedloge građana Konferencije o budućnosti Europe (COFE), konkretno na prijedlog 12. (10.) o jačanju konkurentnosti EU u strateškim sektorima, prijedlog 33. (5.) o sigurnom i pouzdanom društvu, prijedlog 33. (5.) o sigurnom i pouzdanom društvu, uključujući suzbijanje dezinformacija i osiguravanje da ljudi u konačnici imaju kontrolu, prijedlog 35. o promicanju digitalnih inovacija, (3.) uz osiguravanje ljudskog nadzora i (8.) pouzdanu i odgovornu upotrebu umjetne inteligencije, postavljanje mjera zaštite i osiguravanje transparentnosti te prijedlog 37. (3.) o korištenju AI i digitalnih alata za poboljšanje pristupa građana informacijama, uključujući osobe s invaliditetom.

Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

Imate problem ili nedoumicu? Tražite savjet ili bi htjeli nešto predložiti? Slobodno nam se javite!