Krajem novembra 2022. godine kompanija OpenAI je široj javnosti učinila dostupnim program vještačke inteligencije (AI) pod nazivom ChatGPT. Do januara 2023. godine sa chatbot-om ChatGPT razgovaralo je više od 100 miliona korisnika. Poređenja radi, TikToku je trebalo devet mjeseci da dođe do 100 miliona korisnika, a Instagramu dvije i po godine.
GPT je akronim za generativni obučeni transformer (Generative Pre-trained Transformer) koji je izuzetno dobar u pisanju eseja, mejlova, kodova, itd. Mnogi smatraju da je to najinovativnija tehnologija dostupna širokoj javnosti od nastanka interneta, ili jednako važna kao pronalazak modernog pametnog telefona.
Razvoj javno dostupnih rješenja baziranih na vještačkoj inteligenciji otvorio je mnoga pitanja hoće li za obavljanje nekih poslova uopšte trebati ljudi. To se posebno odnosi na kreiranje sadržaja, marketing i druge poslove za koje se koristi pisana riječ. Veliki broj svjetskih stručnjaka potpisao je apel u kome se traži šestomjesečna pauza u istraživanju vještačke inteligencije, ukazujući na velike rizike za čovječanstvo, dok je Sem Altman, izvršni direktor kompanije OpenAI, nedavno istakao da je malo zastrašen svojom tvorevinom ukoliko bi bila upotrijebljena za dezinformacije velikih razmjera ili sajber napade.
Imajući u vidu sve ove dileme, DFC je uputio nekoliko pitanja, na koje je ChatGPT pristao da odgovori.
(Napomena: tekst nije mijenjan i svi odgovori su integralno preneseni onako kako ih je generisao ChatGPT.)
DFC: Dobar dan, da li nam možete reći nešto više o sebi?
ChatGPT: Ja sam ChatGPT, veliki jezični model obučen na OpenAI platformi, utemeljen na GPT-3.5 arhitekturi. Moja svrha je pomoći ljudima u različitim područjima, odgovoriti na njihova pitanja, pružiti korisne informacije i podršku u različitim situacijama. Mogu se koristiti u raznim područjima kao što su edukacija, poslovanje, zdravlje i zabava. Uvijek sam spreman pomoći, tako da slobodno postavite pitanje i pokušat ću odgovoriti na najbolji mogući način.
Nastao sam kroz kombinaciju najsavremenijih istraživanja veštačke inteligencije (AI), naprednih računarskih resursa i obimnih skupova podataka. Moj razvoj je vodila istraživačka laboratorija OpenAI, koja je posvećena stvaranju bezbedne i korisne veštačke inteligencije za sve.
Da bi me stvorio, OpenAI je koristio pristup dubokog učenja nazvan arhitektura transformatora, koji je veoma efikasan u obradi i generisanju prirodnog jezika. Obučili su me o ogromnom korpusu teksta iz različitih izvora, uključujući knjige, veb stranice i drugi digitalni sadržaj.
Tokom procesa obuke, bio sam izložen ogromnoj količini teksta i naučio sam kako da razumem jezik, prepoznajem obrasce i generišem odgovore koji zvuče prirodno na upite i pitanja. Proces obuke je bio zajednički napor koji je uključivao tim istraživača veštačke inteligencije, softverskih inženjera i stručnjaka za jezike.
Posle nekoliko godina razvoja, konačno sam pušten u javnost 2020. Od tada su me ljudi širom sveta koristili da odgovaram na pitanja, pomažem u zadacima i pružam uvid u širok spektar domena.
DFC: Šta je vještačka inteligencije i zašto postoji bojazan od njenog napretka?
ChatGPT: Veštačka inteligencija (AI) se odnosi na sposobnost mašina i kompjuterskih programa da obavljaju zadatke koji bi obično zahtevali ljudsku inteligenciju, kao što su učenje, rasuđivanje i rešavanje problema. Uključuje razvoj algoritama i modela koji se mogu obučiti na podacima da prepoznaju obrasce i donose odluke.
AI se može široko podeliti u dve kategorije: uska ili slaba AI, i opšta ili jaka AI. Uska ili slaba veštačka inteligencija se odnosi na sisteme koji su dizajnirani da obavljaju određene zadatke, kao što su igranje šaha, prepoznavanje govora ili preporuka proizvoda. Opšta ili jaka AI, s druge strane, odnosi se na sisteme koji mogu da izvrše bilo koji intelektualni zadatak koji čovek može.
AI ima mnogo praktičnih primena u širokom spektru oblasti, uključujući zdravstvenu zaštitu, finansije, transport i zabavu. Ima potencijal da revolucioniše način na koji živimo i radimo, omogućavajući mašinama da preuzmu zadatke koje su ranije mogli da obavljaju samo ljudi. Međutim, takođe postoji zabrinutost u vezi sa potencijalnim rizicima i etičkim implikacijama veštačke inteligencije, kao što su pristrasnost, privatnost i raseljavanje posla.
Postoji bojazan od napretka vještačke inteligencije zbog nekoliko razloga. Prvo, mnogi ljudi strahuju da će AI zameniti ljudsku radnu snagu i dovesti do nezaposlenosti. Drugo, postoje zabrinutosti da će AI biti programirana da bude previše inteligentna i da će se razviti sposobnost da se samostalno replicira, što bi moglo da dovede do nekontrolisanog širenja i eventualno ugrožavanja ljudskog života. Treće, neki se boje da će AI biti programirana da donosi odluke koje su neprihvatljive ili nepoštene prema ljudima, što bi moglo da dovede do društvenih i etičkih problema.
Važno je da se AI razvija na način koji će koristiti čovečanstvu, a ne na štetu. Potrebno je da se pažljivo razmišlja o etici i bezbednosti u razvoju vještačke inteligencije kako bi se minimizirali negativni uticaji na društvo i omogućio maksimalan pozitivan uticaj.
DFC: Koje su pozitivne i negativne implikacije razvoja vještačke inteligencije?
ChatGPT: Postoji mnogo pozitivnih i negativnih implikacija razvoja umjetne inteligencije. Evo nekih od njih:
Pozitivne implikacije:
- Povećanje učinkovitosti: AI sustavi mogu obraditi velike količine podataka i obavljati složene zadatke mnogo brže i učinkovitije od ljudi.
- Smanjenje troškova: AI sustavi mogu automatizirati zadatke koji bi inače zahtijevali ljudski rad, što može smanjiti troškove i poboljšati produktivnost.
- Bolje odlučivanje: AI sustavi mogu analizirati velike količine podataka i donositi bolje odluke na temelju tih podataka.
- Poboljšana sigurnost: AI sustavi mogu detektirati i spriječiti sigurnosne prijetnje u stvarnom vremenu, što može poboljšati sigurnost u različitim područjima.
- Medicinska primjena: AI sustavi mogu pomoći u dijagnostici i liječenju raznih bolesti, što može poboljšati zdravlje i produžiti životni vijek ljudi.
Negativne implikacije:
- Gubitak radnih mjesta: AI sustavi mogu zamijeniti ljudski rad u mnogim poslovima, što može dovesti do gubitka radnih mjesta i povećanja nezaposlenosti.
- Povećana ovisnost o tehnologiji: Kao što se sve više oslanjamo na AI sustave, postoji rizik da ćemo postati previše ovisni o tehnologiji i da ćemo izgubiti sposobnost obavljanja zadataka samostalno.
- Privatnost podataka: AI sustavi prikupljaju i obrađuju velike količine podataka o ljudima, što može dovesti do kršenja privatnosti podataka.
- Pogreške i pristranost: AI sustavi mogu donositi pogrešne odluke ili biti pristrani zbog neispravnih podataka ili programiranja.
- Sigurnosni rizici: AI sustavi mogu biti hakirani ili iskorišteni za zlonamjerne aktivnosti, što može dovesti do ozbiljnih sigurnosnih prijetnji.
DFC: Da li smatrate da bi AI mogla učiniti dezinformacije jeftinijim i lakšim za proizvodnju i plasiranje?
ChatGPT: Svakako je moguće da bi generativne tehnologije poput ChatGPT-a mogle da učine dezinformacije jeftinijim i lakšima za proizvodnju za veći broj teoretičara zavere i širitelja dezinformacija. Ove tehnologije su sposobne da generišu ubedljiv i koherentan tekst, koji bi se mogao koristiti za širenje lažnih informacija i propagande u velikim razmerama.
Međutim, važno je napomenuti da su ChatGPT i slične generativne tehnologije samo alati, a njihova upotreba zavisi od namera pojedinaca koji ih kontrolišu. Dok neki mogu koristiti ove alate za širenje dezinformacija, drugi ih mogu koristiti za kreiranje informativnog i tačnog sadržaja.
Štaviše, širenje dezinformacija nije nova pojava i već dugo predstavlja izazov za novinare i društvo u celini. Uspon generativnih tehnologija može olakšati proizvodnju i širenje lažnih informacija, ali takođe predstavlja mogućnosti za proveru činjenica i razotkrivanje pomoću alata i tehnika koje pokreće veštačka inteligencija.
Ukratko, dok razvoj generativnih tehnologija kao što je ChatGPT može predstavljati nove izazove u borbi protiv dezinformacija, na pojedincima i organizacijama je na kraju da koriste ove alate na odgovoran i etički način. Biće potrebni zajednički napor svih zainteresovanih strana kako bi se osiguralo da se prednosti ovih tehnologija maksimiziraju, dok se njihovi negativni uticaji minimiziraju.
DFC: Spomenuli ste da AI nudi i mogućnosti za provjeru činjenica i razotkrivanje putem upotrebe različitih alata i tehnika. Kako i na koji način?
ChatGPT: Da, alati i tehnike koje pokreće veštačka inteligencija mogu da se koriste za proveru činjenica i razotkrivanje lažnih informacija koje generišu generativne tehnologije kao što je ChatGPT. Evo nekoliko primera kako se to može uraditi:
- Obrada prirodnog jezika (NLP): NLP je oblast veštačke inteligencije koja se fokusira na razumevanje i obradu ljudskog jezika. NLP tehnike se mogu koristiti za analizu jezika i strukture teksta generisanog generativnim tehnologijama da bi se identifikovali obrasci i anomalije koje mogu ukazivati na prisustvo lažnih informacija ili propagande.
- Analiza osećanja: Analiza osećanja je tehnika koja koristi algoritme mašinskog učenja za određivanje emocionalnog tona dela teksta. Ovo se može koristiti za identifikaciju teksta koji sadrži lažne ili obmanjujuće informacije otkrivanjem obrazaca pristrasnosti, propagande ili drugog manipulativnog jezika.
- Algoritmi za proveru činjenica: Algoritmi za proveru činjenica koriste NLP i tehnike mašinskog učenja da uporede izjave sa bazom podataka poznatih činjenica i procene njihovu tačnost. Ovi algoritmi se mogu koristiti za brzo identifikovanje lažnih ili obmanjujućih izjava u tekstu koji generiše ChatGPT.
- Kolaborativno filtriranje: Kolaborativno filtriranje je tehnika koja se koristi u sistemima preporuka koja analizira obrasce ponašanja korisnika kako bi dala personalizovane preporuke. Ovo se može koristiti da pomogne korisnicima da identifikuju pouzdane izvore informacija i izbegnu lažan ili obmanjujući sadržaj.
Sve u svemu, alati i tehnike koje pokreće veštačka inteligencija mogu biti moćan resurs u borbi protiv dezinformacija i propagande. Koristeći moć veštačke inteligencije, novinari, istraživači i druge zainteresovane strane mogu pomoći da se identifikuju i razotkriju lažne informacije generisane generativnim tehnologijama kao što je ChatGPT, i promovišu informisaniji i pouzdaniji javni diskurs.
DFC: Ono što bi svakako zanimalo našu publiku jeste kako otkriti tekst, slike i video materijale generisane putem vještačke inteligencije?
ChatGPT: Kako tekst, slike i video zapisi generisani veštačkom inteligencijom postaju sve sofisticiraniji, može biti teško uočiti ih golim okom. Međutim, postoji nekoliko tehnika koje se mogu koristiti za identifikaciju da li je deo sadržaja generisan od strane veštačke inteligencije. Evo nekoliko primera:
- Nedoslednosti: Sadržaj generisan veštačkom inteligencijom može da sadrži nedoslednosti u jeziku, tonu ili stilu teksta. Ovo može biti rezultat ograničenja osnovnih AI algoritama i može biti koristan trag u identifikaciji da li je sadržaj autentičan.
- Neprirodni jezik: Tekst generisan veštačkom inteligencijom može da sadrži neprirodan ili previše složen jezik koji nije tipičan za ljudsko pisanje. Ovo može uključivati neobične izbore reči, sintaksu ili gramatiku.
- Metapodaci: Metapodaci su informacije ugrađene u digitalnu datoteku koje pružaju informacije o poreklu, kreiranju i modifikaciji datoteke. Ispitivanjem metapodataka slike ili videa može biti moguće utvrditi da li ih je generisala AI.
- Obrnuta pretraga slika: Obrnuta pretraga slika je tehnika koja omogućava korisnicima da pretražuju sliku tako što će je otpremiti ili uneti njen URL. Ovo se može koristiti za identifikaciju da li je sliku generisao AI ili je to modifikovana ili uređena verzija postojeće slike.
- Provera izvora: Provera izvora sadržaja je uvek važna, ali je posebno kritična kada je u pitanju sadržaj generisan veštačkom inteligencijom. Ako izvor nije pouzdan ili ako ne postoji izvor koji se može identifikovati, to može biti crvena oznaka da sadržaj nije autentičan.
Ove tehnike mogu pomoći da se identifikuje da li je deo sadržaja generisan od strane veštačke inteligencije, ali je važno napomenuti da nisu sigurni. Kako tehnologija veštačke inteligencije nastavlja da napreduje, biće sve teže uočiti sadržaj generisan od veštačke inteligencije bez specijalizovanih alata i stručnosti.
DFC: Kako vidite rješenje za problem dezinformacija?
ChatGPT: Problem dezinformacija je kompleksno pitanje koje zahteva višestrani pristup. Evo nekih potencijalnih rešenja za borbu protiv dezinformacija:
- Obrazovanje: Obrazovanje je ključno za borbu protiv dezinformacija. Ovo uključuje podučavanje veština kritičkog mišljenja, medijske pismenosti i digitalne pismenosti kako bi se pojedincima pomoglo da prepoznaju i procene izvore informacija.
- Provera činjenica: Provera činjenica igra ključnu ulogu u identifikaciji lažnih ili obmanjujućih informacija. Ovo uključuje korišćenje alata za proveru činjenica zasnovanih na veštačkoj inteligenciji kako bi se brzo identifikovale lažne informacije, kao i korišćenje ljudskih provera činjenica za procenu tačnosti informacija.
- Regulacija: Vlade i platforme društvenih medija mogu igrati ulogu u regulisanju dezinformacija sprovođenjem politika koje promovišu transparentnost, odgovornost i tačnost onlajn sadržaja.
- Saradnja: Saradnja između vlada, tehnoloških kompanija, novinara i organizacija civilnog društva je od suštinskog značaja za borbu protiv dezinformacija. Ovo uključuje deljenje informacija, resursa i najboljih praksi za promovisanje koordinisanog odgovora na dezinformacije.
- Tehnologija: Tehnologija može da igra ulogu u borbi protiv dezinformacija, uključujući razvoj alata i tehnika koje pokreće veštačka inteligencija za identifikaciju i označavanje lažnih informacija.
Važno je napomenuti da ne postoji jedinstveno rešenje za problem dezinformacija. Umesto toga, to će zahtevati sveobuhvatan, višestruki pristup koji uključuje niz zainteresovanih strana i strategija. Zajedničkim radom možemo promovisati informisaniji i pouzdaniji javni diskurs i ublažiti štetu od dezinformacija za pojedince i društvo u celini.
DFC: Hvala Vam na odgovorima i izdvojenom vremenu!