Alle bruger det, men ingen forstår det: Sådan får du det bedste ud af ChatGPT

ChatGPT er det stærkeste informationsværktøj, vi nogensinde har haft, men hvordan det virker, er som en sort boks. Hvordan lærer vi at mestre det?

10/10/2023

ChatGPT, AI, Machine Learning, Deep Learning, Misinformation, Critical thinking

For blot et år siden brugte folk internettet anderledes, end de gør i dag.

Hvis nogen fx spurgte dig til et middagsselskab, hvor Napoleon voksede op, ville du nok google det på din telefon, finde svaret på Wikipedia og sige ”Korsika”.

Men nu er det måske lige så sandsynligt, at du spørger ChatGPT, for den fortæller dig helt præcist, hvad du har brug for. Napoleon blev født på Korsika og flyttede til fastlandet, da han blev ni år.

Du behøver ikke læse en masse tekst, og hvis du vil vide præcist, hvor han flyttede hen, kan du bare stille et opfølgende spørgsmål.

Der er dog en hage ved det. Den kommer vi tilbage til senere.

Der er sket meget på et år

Nytårsaften 2022 havde en masse mennesker nok allerede fornemmet, at kunstig intelligens var på vej ind i en ny æra. Da de stod og betragtede fyrværkeriet, var de nok ikke klar over, hvor hurtigt det ville gå.

Så snart lunten blev tændt på ChatGPT, sprang det i luften.

Siden lanceringen i december 2022 har ChatGPT bogstaveligt talt forandret den måde, millioner af mennesker bruger internettet på.

ChatGPT er den hurtigst voksende forbrugerapp nogensinde. På bare to måneder fik den mere end 100 millioner månedlige brugere.

Til sammenligning tog det TikTok ni måneder at opnå samme antal brugere og rundt regnet to et halvt år for Instagram.

“Det er virkeligt imponerende. Og nemt at se hvorfor. ChatGPT har et flot interface og kan de mest fantastiske ting. Den kan svare på næsten alle spørgsmål, du kan komme i tanker om. Det er et kæmpe skridt fremad for informationsbearbejdelse i forhold til de søgemaskiner, vi kender. Men det allermest interessante ved den er, at den virker menneskelig,” siger Daniel Hardt, lektor i computerlingvistik ved Institut for Ledelse, Samfund og Kommunikation ved Copenhagen Business School.

Hagen

Men tilbage til hagen og middagsselskabet.

Du har selvsikkert fortalt alle, at Napoleon levede på Korsika, indtil han blev ni år.

Men en af gæsterne, en skeptisk bedrevidende type med silkeslips og høj hat – måske har han endda monokel på – kigger pludselig på dig og udbryder:

“Hvordan ved du, at han flyttede, da han var ni?”.

“Jeg læste det på ChatGPT,” svarer du.

“Og hvor har ChatGPT svaret fra?”, spørger han igen.

Nu kigger de andre gæster på dig. Og du indser, at du ikke aner det. Svaret er sikkert rigtigt, men du kan ikke underbygge det på nogen måde.

Når du googler, ved du, at Wikipedia er skrevet og modereret af frivillige, så du er i forvejen lettere skeptisk over for de oplysninger, du får.

Men Wikipedia fortæller dig også, at de oplysninger, du får omkring Napoleons fødsel og barndom, kommer fra to forskellige bøger. Du får også bøgernes titler samt links, så du har mulighed for at tjekke det.

ChatGPT fortæller dig intet om, hvor oplysningerne kommer fra.

“Jeg synes, det er et stort problem. Og det er ikke kun brugeren, der ikke er i stand til at verificere ChatGPT's kilde til information. Forskere som jeg og selv ChatGPT’s programmører kan heller ikke,” siger Daniel Hardt.

Og grunden er ikke bare, at ChatGPT trænes på baggrund af store mængder information. Størrelsen på datasættet er ikke et problem i sig selv.

“Men det faktum, at ChatGPT bliver trænet igen og igen i at forudsige oplysningerne og optimere svarene, gør, at ChatGPT ændrer sin egen algoritme og proces så mange gange, at programmørerne i sidste ende ikke vil kunne kende dens konklusioner.”

ChatGPT er en sort boks

ChatGPT er en speciel chatbot; en såkaldt stor sprogmodel (Large Language Model, også kaldet LLM).

Den mest simple forklaring er, at den forudsiger ord. Sådan var det i hvert fald i ChatGPT's unge dage.

Du giver den en tekst og fjerner et af ordene, hvorefter du beder den om at gætte det manglende ord. Så gør du det igen. Og igen. Og igen. Så længe man løbende fodrer den med nye tekster og mere data, bliver den ikke kun bedre til at gætte ordene, men den opnår også en væsentlig mængde viden og producerer tekster og svar, der ligner svar fra et menneske.

Denne proces er en slags maskinlæring; deep learning, hvor modellen træner sig selv med meget lidt eller ingen menneskelig indblanding. Den korrigerer simpelthen bare sin egen model igennem rigtige og forkerte svar.

“Modeller som disse ser alt på alle større sprog i verden. De har så meget viden. Deep learning er ofte en meget effektiv træningsmetode men giver os ikke noget viden om, hvordan ChatGPT forudsiger svarene,” siger Daniel Hardt.

Udover deep learning har ChatGPT, som vi kender den, også været udsat for såkaldt reinforcement learning, hvor man tester de svar, den kommer med, giver feedback og afholder den fra at generere svar, der eventuelt kan støde nogen.

“Dog er denne måde at træne ChatGPT på uendelig lille sammenlignet med deep learning, så ChatGPT's menneskelighed skraber altså kun lige overfladen. For det vil kræve enorme ressourcer at bruge reinforcement learning på en model, der er så omfangsrig som ChatGPT,” siger Daniel Hardt.

Da ChatGPT 3.5 var færdig med at blive trænet i begyndelsen af 2022, havde den tygget sig igennem et kæmpestort datasæt på 570 gigabyte tekst, der indeholdt hjemmesider, bøger, artikler, tidsskrifter og sociale medier.

Nyere versioner som betalingsudgaven ChatGPT 4 og den kommende ChatGPT 5 øger computerkraften i ChatGPT 3.5 og gør træningen meget mere omfattende.

I denne proces, hvor den kunstige intelligens bliver bedre og bedre til at forudsige, bliver dens evne til at ræsonnere samtidig mere og mere uforståelig.

“I sidste ende er der ingen, der har et klart overblik over processen, fordi den er blevet så avanceret. Det er en sort boks for alle,” siger Daniel Hardt.

Problemerne

Okay. Så ChatGPT afslører ikke sine kilder. Men er det ikke fint nok, så længe oplysningerne er korrekte?

Ikke helt. For det første kan du aldrig være 100 % sikker på, at data er korrekt. ChatGPT laver stadig fejl, nogle gange er der fejl i dens data, og andre gange forstår den ikke dit spørgsmål. Den er fx ikke vanvittig god til at løse matematiske ligninger.

Men sådan er det også for Google, Bing og andre konventionelle søgemaskiner. Du kan aldrig være sikker på, at data er korrekt.

Den store forskel er bare, at uden en kilde er det umuligt at finde grunden til, at oplysningerne ikke er korrekte, hvilket fx kunne være en mulig bias, ondsindede hensigter eller bare at forfatteren helt oprindeligt har skrevet noget forkert.

“Maskinen trænes på baggrund af vores sprog, så den lærer de samme fejlslutninger, som mennesket også drager. Så selvfølgelig laver den fejl. Og ingen kilde er perfekt – heller ikke en professor fra CBS. Men hvad der virkelig er en kilde til bekymring, er at vi aldrig kan tjekke vores informationskilder. Heller ikke selvom vi har adgang til træningsdata. Det er blevet trænet så indgående, at det er for vanskeligt at finde ud af,” siger Daniel Hardt og tilføjer:

“Hvis vi havner i en situation, hvor alle deler oplysninger uden kilder, får vi et kæmpe problem med misinformation. Derudover kan ChatGPT anvendes og bliver også anvendt til at skrive kode til hackere og producere spam og phishingmails til bots og cyberkriminelle. Så som alle andre værktøjer kan ChatGPT både være til gavn og skade."

Det største problem er ikke, at den brede befolkning ikke forstår, hvordan ChatGPT fungerer. Det største problem er, at ingen forstår det. Forskere og ChatGPT's egne programmører forstår heller ikke, hvad der sker, når først du har bedt den om noget.

“ChatGPT er et mirakel”

Måske bliver du nu bekymret for, at ChatGPT og lignende chatbots vil påvirke din viden i negativ retning. Men det gør den overhovedet ikke ifølge Daniel Hardt. Faktisk kalder han ChatGPT for et mirakel.

“Den er utvivlsomt et mirakel. Den har været en hellig gral for alle forskere i kunstig intelligens, siden begrebet blev opfundet i 50’erne. Faktisk har en maskinel version af menneskesprog været noget, oplysningstidens filosoffer som Descartes og Leibniz kun drømte om. Historiens største tænkere har været overbevist om, at dette aldrig ville ske. Så fra et intellektuelt perspektiv har det væsentlig betydning. Praktisk set er det selvfølgelig også ekstremt vigtigt. Sproget er jo helt åbenlyst en perfekt måde for mennesker at kommunikere på. ChatGPT er den ultimative killer app, og det er derfor, at folk har taget ChatGPT hurtigere til sig end nogen anden app,” siger han.

Ligesom da internettet så dagens lys, har vi nu et meget mere kraftfuldt værktøj til informationsbehandling, som vi alle har adgang til. Men hvad med misinformationen?

“Spredningen af misinformation har været et problem lige siden vi begyndte at kommunikere via medier. ChatGPT og andre store LLM'er fremskynder alt, der har noget med information at gøre, og det gælder både udbredelsen af vigtig viden og spredningen af misinformation. Det, vi kan håbe på, er, at ChatGPT udbreder mere værdifuld viden, end den spreder misinformation. Hvis ChatGPT kan hjælpe folk til mere viden, kan den også hjælpe dem med at forholde sig mere kritisk til misinformation.

Uddannelse kan hjælpe os med at bruge ChatGPT i lang tid fremover

Så hvordan kan vi egentlig sikre, at ChatGPT gør mere gavn end skade? Ifølge Daniel Hardt handler det om uddannelse og lovgivning.

Vi kan lære at reflektere over, hvordan vi rent faktisk anvender ChatGPT selv og forholder os til, at kilder kan være fejlagtige – simpelthen lige tjekke oplysningerne en ekstra gang, inden vi bare fortæller videre, hvad ChatGPT har fortalt.

“Som det allerførste må du vide, hvad du egentlig vil bruge ChatGPT til. Skal den være faktuel eller skal den komme med argumenter eller være overbevisende? Måske vil du have, at den kan komme med både højre- såvel som venstreorienterede perspektiver på en sag, og det er jo fint. Vi skal bare være klare på, hvad vi vil have fra ChatGPT, og hvordan vi forbereder den på det. Lige præcis forberedelsen er et aktivt forskningsområde og noget, jeg synes, vi skal begynde at lære vores studerende,” siger Daniel Hardt og tilføjer:

“Men det sker også naturligt. Jeg mener, at teknologien er så populær og tiltalende, at mange hurtigt er blevet eksperter i ChatGPT, og det er sket, imens vi forskere har siddet og overvejet, hvordan vi bedst skal undervise de studerende.”

Lovgivning er en del af løsningen

Daniel Hardt understreger også vigtigheden af at lovgive mod, at modeller som ChatGPT spreder misinformation.

“Jeg kunne godt tænke mig, at alle LLM'er blev bedt om at vandmærke deres output, så du altid kan se, om en tekst er produceret af en LLM og i så fald hvilken. Det er teknisk vanskeligt, men jeg er overbevist om, at det er muligt. Hvis man krævede det af en virksomhed, ville den finde en løsning. Jeg kunne også godt tænke mig, at vi bremsede udviklingen af LLM'er. Dem, vi har nu, er kæmpestore og ekstremt kraftige. Vi er nødt til at lære at bruge dem og styre dem. Vi har ikke brug for større modeller.”

Og husk på:

”Selvom ChatGPT selvfølgelig kan tage fejl, er den så meget dygtigere til at give os de oplysninger, vi har brug for, end noget andet, vi har set. Uanset hvilken opgave, der kræver informationsbearbejdelse, kan ChatGPT forbedre. Derfor er det vigtigt, at vi lærer at anvende den bedst muligt.”

Sidst opdateret: Sekretariat for Ledelse og Kommunikation // 14/11/2023