• Illustrasjon: Getty Images/Istockphoto

Hvordan KI kan endre datateknologien, kulturen og historiens gang

Hvordan KI kan endre datateknologien, kulturen og historiens gang

Forvent endringer i måten folk får tilgang til kunnskap på, forholder seg til kunnskap på og tenker om seg selv på.

Fra utgave: 7 / juli 2023

Pseudo-bevissthetens tidsalder

Et av opplysningstidens dystrere bidrag til historien var erkjennelsen av at menneskene en dag kan bli utryddet. Den astronomiske revolusjonen på 1600-tallet hadde vist at solsystemet var styrt av fornuftens høyeste prinsipper, men også at det inneholdt kometer som kunne tenkes å treffe Jorden.

Den geologiske historien, slik den ble tolket av den franske vitenskapsmannen Comte de Buffon (1707–1788), avdekket store utryddelser hvor arter hadde forsvunnet for alltid. Det dannet bakteppet for at Charles Darwin mente at slike utryddelser var evolusjonens motor, og dermed både kraften som hadde skapt menneskene og – underforstått – deres mulige skjebne.

Den gryende kunnskapen om termodynamikk ga en kosmisk dimensjon til vissheten om en slutt: Solen, Jorden og hele herligheten ville til slutt ende i en livløs «varmedød».

Det 20. århundret tilførte ideen om at utryddelsen kanskje ikke vil skje naturlig, men kunstig. Kimen til dette var oppdagelsen og senere utnyttelsen av kraften innestengt i atomkjerner. Noen av kjernekraftens oppdagere feiret den som en måte på ubestemt tid å utsette varmedøden på, men den ble snart utviklet til en langt mer umiddelbar fare. Og den håndgripelige trusselen om overhengende katastrofe som atombomben utgjorde, smittet over på andre teknologier.

Ingen teknologier ble hardere tilsmusset enn datamaskinen. Det skyldes antagelig assosiasjonen til at datamaskinen spilte en viktig rolle i utviklingen av atomarsenalet. Det kan ha vært forutbestemt. Opplysningstidens tro på rasjonalitet som menneskehetens høyeste oppnåelse og Darwins evolusjonsteori gjorde løftet om overmenneskelig rasjonalitet mulig, som evolusjonære fremskritt på menneskehetens bekostning.

Kunstig intelligens har etter hvert overskygget alt rundt den lille, men fascinerende, og mye omtalte klikken av akademikere som har viet seg til å studere eksistensielle trusler de siste par tiårene.

Faktisk så det ofte ut til å være kjernen i deres bekymringer. En verden med enheter som tenker bedre og handler raskere enn mennesker og deres institusjoner, og med interesser som ikke var på linje med menneskehetens, ville være et farlig sted.

Det ble vanlig for folk innenfor og rundt feltet å si at det var en viss fare for at utviklingen av en overmenneskelig kunstig intelligens, kunne føre til menneskelig utryddelse. De oppsiktsvekkende fremskrittene til de store språkmodellene, de «grunnleggende» modellene og lignende former for generativ kunstig intelligens har drevet disse diskusjonene om eksistensielle farer ut i allmennhetens fantasi og i politikernes innbokser.

Feltets fremgang har skjedd plutselig, og dets utsikter er uoverskuelige. Det fører med seg tydelige og umiddelbare farer som må diskuteres. Men om man konkret tar for seg GPT-4, dagens største språkmodell, og lignende generative modeller, virker snakket om en eksistensiell trussel ganske absurd. Modellene produserer prosa, poesi og kode; de genererer bilder, lyd og video; de gjør beregninger basert på mønstre. Det er lett å se at disse evnene medfører enorme muligheter til å gjøre ugagn. Men det er vanskelig å forestille seg at de underlegger seg «makt til å kontrollere sivilisasjonen», eller til å «erstatte oss», som overivrige kritikere advarer om.

 

Historisk vendepunkt

Men mangelen på «store, kalde og ufølsomme intellekter» som sakte, men sikkert legger sine planer mot oss, med «hjerner like overlegne oss som vi er over umælende dyr», for å sitere H.G. Wells, betyr ikke at omfanget av endringene som KI kan føre med seg, kan ignoreres eller bør undervurderes.

Livet handler om mye mer enn å unngå utryddelse. En teknologi trenger ikke bety verdens ende selv om den kan endre verden.

Overgangen til en verden fylt med dataprogrammer i stand til å oppnå menneskelige nivåer på samtale og språkforståelse har nettopp begynt, slik som over-menneskelige krefter når det gjelder databehandling og mønstergjenkjenning har det.

Fremveksten av allestedsnærværende pseudobevissthet etter disse prinsippene kan føre til et vendepunkt i historien, selv om det nåværende tempoet i utviklingen av kunstig intelligens skulle avta (noe det kan gjøre) eller den grunnleggende utviklingen viser seg å være overdrevet (noe som føles usannsynlig). Det vil trolig få betydning ikke bare for hvordan folk tjener til livets opphold og organiserer livet sitt, men også for hvordan de ser på sin egen menneskelighet. 

 

Illustrasjon: Getty Images/Istockphoto

 

For en følelse av hva som kan være på vei, ta i betraktning tre mulige paralleller, eller forløpere: nettleseren, trykkpressen og psykoanalysen. Den ene endret datamaskinene og økonomien, den andre endret hvordan folk fikk tilgang til og forholdt seg til kunnskap, og den tredje endret hvordan folk forsto seg selv.

Den beskjedne nettleseren ble introdusert på begynnelsen av 1990-tallet som en måte å dele filer på tvers av nettverk på, og endret måten datamaskiner brukes på, måten dataindustrien fungerer på og måten informasjon er organisert på.

Kombinert med muligheten til å koble datamaskiner til nettverk, ble nettleseren et vindu der først filer og deretter applikasjoner kunne åpnes uansett hvor de måtte befinne seg. Grensesnittet som en bruker interagerte med en applikasjon gjennom, ble adskilt fra selve applikasjonen.

Kraften til nettleseren var umiddelbart tydelig. Uenighet om hvor hardt brukere kunne tvinges til å ta i bruk en bestemt nettleser, førte til et kommersielt drama. Om en bedrift bare hadde en nettadresse, kunne den få finansiering, nærmest uavhengig av om virksomheten var seriøs.

Da boblen sprakk ved årtusenskiftet, var det et forutsigbart tilbakeslag. Men det grunnleggende skillet mellom grensesnitt og applikasjon fortsatte. Amazon, Meta (tidl. Facebook) og Alphabet (tidl. Google) steg til svimlende høyder ved å gjøre nettleseren til en kanal for varer, informasjon og menneskelige forbindelser. Hvem som laget nettleserne, ble etter hvert av underordnet betydning. Deres rolle som plattform ble avgjørende.

I månedene etter lanseringen av Open AIs Chat-GPT, et samtalegrensesnitt nå drevet av GPT-4, har man sett en eksplosjon i gründervirksomhet som får dotcom-veksten til å se sløv ut. For brukere kan apper basert på store språkmodeller og lignende programvare være latterlig enkle å bruke: Skriv inn en forespørsel og få et resultat.

For utviklerne er det ikke så mye vanskeligere. «Du kan bare åpne den bærbare datamaskinen og skrive noen linjer med kode som samhandler med modellen», forklarer Ben Tossell, en britisk gründer som står bak et nyhetsbrev om KI-tjenester.

Og de store språkmodellene er i økende grad i stand til å hjelpe til med kodingen også. Etter å ha blitt «trent» ikke bare på bunker med tekst, men på massevis av kode, inneholder de byggeklossene til mange mulige programmer. Det gjør at de store språkmodellene kan fungere som «co-piloter» for kodere. Programmerere på GitHub, en åpen kilde-kodeside, bruker nå en GPT-4-basert co-pilot til å produsere nesten halvparten av koden.

Og det er ingen grunn til at de store språkmodellene ikke skulle være i stand til å sette sammen kode i full fart, ifølge Kevin Scott, Microsofts teknologisjef. Evnen til å oversette fra ett språk til et annet inkluderer i prinsippet, og i økende grad, i praksis evnen til å oversette fra språk til kode.

En forespørsel skrevet på engelsk kan i prinsippet stimulere til produksjon av et program som oppfyller kravene. Mens nettlesere skilte brukergrensesnittet fra programvareapplikasjonen, vil de store språkmodellene sannsynligvis oppløse begge kategoriene. Dette kan markere et grunnleggende skifte både i måten folk bruker datamaskiner på og forretningsmodellene de gjør det innenfor.

 

Uendelig tilførsel av desinformasjon

Programmerings- og kodetjenester høres ut som en revolusjonerende fordel. En tilsvarende kreativ tilnærming til beretninger om verden er en ulempe.

Mens nettlesere hovedsakelig sørget for et vindu mot innhold og kode produsert av mennesker, genererer de store språkmodellene innholdet sitt selv.

Når de gjør det, «hallusinerer» de (eller «konfabulerer», som noen foretrekker å kalle det, det vil si å fylle ut hukommelsestap/manglende kideinformasjon med «falske minner») på ulike måter. Noen hallusinasjoner er rett og slett bare tull. Noen, som det å legge til fiktive ugjerninger i biografiske omtaler av levende mennesker, er både plausible og skadelige. Hallusinasjonene kan være generert av motsetninger i treningsmaterialet og ved at de store språkmodellene er designet for å produsere sammenheng i stedet for sannhet. De skaper tekst og bilder som ligner på noe fra treningsmaterialet, men de har ingen følelse av en verden utover tekstene og bildene de er trent på. 

For mange applikasjoner er en tendens til å spytte ut troverdige løgner en programfeil. For noen kan det være en funksjon. Deep fakes og fabrikkerte videoer som sverter politikere, er bare begynnelsen. Vi må regne med at modellene kan brukes til å sette opp ondsinnede påvirkningsnettverk på forespørsel – komplette med falske nettsteder, Twitter-roboter, Facebook-sider, TikTok-feeder og mye mer.

Tilførselen av desinformasjon, har Renée DiResta fra Stanford Internet Observatory advart, «vil snart være uendelig». Denne trusselen mot selve mulig-heten for en offentlig debatt er kanskje ikke eksistensiell, men den er dypt urovekkende.

Den bringer tankene til «Babels bibliotek», en novelle av Jorge Luis Borges. Biblioteket inneholder alle bøkene som noen gang er blitt skrevet, men også alle bøkene som aldri ble skrevet, bøker som er feil, bøker som bare er tull. Alt som betyr noe, er der, men det er umulig å finne på grunn av alt det andre. Og bibliotekarene drives til galskap og fortvilelse.

Denne fantasien har et åpenbart teknologisk underlag. Den tar til det ytterste trykkpressens evne til å kombinere et fast sett med symboler på et ubegrenset antall måter. Og dette gir en annen måte å tenke på de store språkmodellene på.

 

Teknologisk revolusjon

Den moderne verdenen er utenkelig uten trykkekunsten. Det gjør at alle spekulasjoner om historiske paralleller til de store språkmodellene i beste fall er mangelfulle, og i verste fall villedende. Johannes Gutenbergs utvikling av løse bokstavtyper har fra tid til annen fått ansvaret for nesten alle aspekter av livet som vokste frem i århundrene som fulgte.

Det endret forholdet mellom Gud og mennesket, mellom mann og kvinne, mellom fortid og nåtid. Det tillot massedistribusjon av meninger, systematisering av byråkratiet, akkumulering av kunnskap. Det førte til forestillingen om intellektuell eiendom og muligheten for piratkopiering.

Men nettopp denne bredden gjør sammenligningen nesten uunngåelig. Som Bradford DeLong, professor i økonomisk historie ved University of California, Berkeley sier det: «Det er den eneste virkelige tingen vi har, som har gjort at prisen på informasjon har falt i denne størrelsesordenen.»

Trykte bøker gjorde det mulig for lærde å tilegne seg større kunnskapsområder enn det som noen gang tidligere hadde vært mulig. Der er det en åpenbar likhet med de store språkmodellene, som er trent på et gitt kunnskapsmateriale og som kan utlede alle slags ting fra det. Men anskaffelsen av bøker innebar mer enn bare kunnskap.

Drøyt hundre år etter at Gutenbergs trykkpresse begynte å klapre, hadde Michel de Montaigne, en fransk aristokrat, klart å legge seg opp et personlig bibliotek med rundt 1500 bøker – noe som ville vært utenkelig for en enkeltperson i generasjonene før ham. Biblioteket ga ham mer enn kunnskap. Det ga ham venner. «Når jeg blir angrepet av dystre tanker», skrev han, «er det ingenting som hjelper meg så mye som det å løpe til bøkene mine. De absorberer meg raskt og fjerner skyene fra tankene mine.»

Og ideen om boken ga ham en måte å være seg selv på som ingen tidligere hadde utforsket: Han kunne sette seg selv mellom to permer. «Leser», advarte han i forordet til sine essays, «det er meg selv boken min handler om». Masseproduksjonen av bøker tillot dem å bli svært personlige. Det var mulig å skrive en bok som hverken mer eller mindre handlet om noe annet enn deg selv og personen du var blitt av å ha lest andre bøker. Bøker produserte forfattere.

Som en måte å presentere kunnskap på, bebuder de store språkmodellene å ta både den praktiske og personlige siden av bøkene videre, og i noen tilfeller å avskaffe dem helt. En åpenbar anvendelse av teknologien er å gjøre kunnskapssamlinger til tema for chatbots. I stedet for å lese store mengder med tekst, vil du stille spørsmål til en enhet som har brukt teksten til trening, og få svar basert på den samme teksten. Hvorfor bla i bøker selv når du kan spørre ut et verk i sin helhet?

Alt og alle ser nå ut til å ta i bruk finjusterte modeller som måter å gi tilgang til kunnskap på. Medieselskapet Bloomberg jobber med BloombergGPT, en modell for finansinformasjon. Det finnes tidlige versjoner av en Koran-GPT og en Bibel-GPT. I mellomtiden tilbyr flere oppstartsselskaper tjenester som gjør at man kan spørre ut alle dokumentene på en brukers harddisk, eller i deres del av skyen, på én gang.

«Det er som en kunnskapsrik kollega du alltid kan snakke med», forklarer Jack Clark en utvikler av store språkmodeller.

Det er lett å forestille seg at slike mellomledd har noe som kan virke som en personlighet – ikke bare generiske, som for eksempel «en onkelaktig veileder», men spesifikke som vokser med tiden. De vil kunne bli som brukerne sine: en ekstern versjon av deres indre stemme. Eller de kan fremstå som enhver annen person som man har nok materiale fra, for at en modell kan trene på det (der bekymringer om åndsverk og personvern melder seg).

Forskere ved Australian Institute for Machine Learning har bygget en tidlig versjon av en slik assistent for komponist og musiker Laurie Anderson. Den er delvis trent på arbeidet hennes, og delvis på arbeidet til hennes avdøde ektemann Lou Reed.

 

Hva betyr det å være levende?

Anderson sier at hun ikke vurderer å bruke systemet som en måte å samarbeide med sin døde partner på. Noen ville kanskje lettere gi etter for en slik illusjon. Hvis enkelte chatboter til en viss grad blir brukerens indre stemme, vil den stemmen vedvare også etter døden, dersom andre ønsker å snakke med den. At noen mennesker vil etterlate seg chatbots av seg selv når de dør, er opplagt.

En slik bruk minner om Sigmund Freuds klassiske essay om Unheimliche, eller det uhyggelige. Freud tar utgangspunkt i ideen om at uhygge stammer fra «tvil om hvorvidt et tilsynelatende levende vesen virkelig er i live, eller omvendt, om et livløst objekt kanskje faktisk er levende». Det er den typen tvil som er vanskelig å unngå når man tenker på de store språkmodellene.

Selv om KI-forskere kan forklare mekanikken bak deres kreasjoner, er de vedvarende ute av stand til å si hva som faktisk skjer i dem.

«Det er ingen 'avgjørende teoretisk grunn' til at noe slikt skal fungere», konkluderte nylig Stephen Wolfram, en informatiker og skaperen av den matematiske søkemotoren Wolfram Alpha, i et bemerkelsesverdig (og langt) blogginnlegg som prøver å forklare hvordan modellene egentlig fungerer.

Dette reiser to bekymringer som henger sammen, men som gjensidig utelukker hverandre: at KI utfører en slags internt arbeid som forskerne ennå ikke kan oppfatte, eller at det er mulig [for en KI] å bli oppfattet som et menneske i den sosiale verdenen uten noen form for indre forståelse.

«Disse modellene er bare fremstillinger av fordelingen av ord i tekster som kan brukes til å produsere flere ord», sier Emily Bender, professor ved University of Washington i Seattle. Hun er én av forfatterne av «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?» (Om farene ved stokastiske papegøyer: Kan språkmodeller bli for store?), en kritikk av de store språkmodellenes triumfalisme.

Modellene, hevder hun, har ingen reell forståelse. Uten erfaring fra det virkelige liv eller med menneskelig kommunikasjon tilbyr de ikke noe mer enn evnen til å herme etter ting de er matet med under treningen, en evne som etter enorme mengder tallknusing ofte er tilstrekkelig og noen ganger overraskende bra, men som ikke ligner på tanker. Dette er et syn som ofte kommer til uttrykk blant dem som har kommet inn i feltet via lingvistikk, slik Emily Bender har. 

 

Illustrasjon: Getty Images/Istockphoto

 

For noen av dem som utvikler store språkmodeller, er ikke ting så enkelt. Modellene deres kan vanskelig avvises som «rene skvaldrebøtter», slik Blaise Agüera y Arcas har uttalt, lederen av en gruppe i Alphabet som jobber med KI-drevne produkter.

Han mener modellene har egenskaper som egentlig ikke kan skilles fra evnen til å vite hva ting faktisk betyr. Det mener han man kan se i deres evne til pålitelig å velge riktig betydning når de oversetter setninger som er grammatisk tvetydige, eller evnen til å forklare vitser.

Hvis professor Bender har rett, kan det hevdes at et bredt spekter av atferd som vi mennesker ser på som i hovedsak menneskelig, ikke nødvendigvis er det. Uhyggelig «tvil om i hvilken grad et tilsynelatende levende vesen virkelig er i live», er fullt berettiget.

Det å akseptere at menneskelignende store språkmodeller er beregninger, statistikk og ingenting mer, kan påvirke hvordan folk tenker om seg selv. Freud fremstilte seg selv som en fortsettelse av trenden startet av Kopernikus – som fjernet mennesker fra sentrum av universet – og Darwin – som fjernet mennesket fra en spesiell og gudegitt status blant dyrene. Psykologiens bidrag, slik Freud så det, lå i «å forsøke å bevise for ‘egoet’ til hver enkelt av oss, at man ikke engang er herre i sitt eget hus».

Det kan argumenteres for at de store språkmodellene tar denne ideen enda noen skritt videre. Minst én fløy av Freuds hus blir et ubebodd «smarthjem»: Lysene slår seg av og på automatisk, den smarte termostaten åpner vinduer og senker persienner, robotstøvsugeren går sin gang. Ingen herre er nødvendig i det hele tatt.

Uansett hvor uhyggelig det hele er, ville det være feil å tro at veldig mange mennesker vil legge seg alt dette på sinne. Når det gjelder hverdagen, har menneskeheten vist seg å være ganske motstandsdyktig mot Kopernikus, Darwin og Freud. Folk tror fortsatt på guder og sjeler, og at vi er spesielle, med liten åpenbar bekymring for vitenskapen som hevder det motsatte. Mange vil gjerne kunne tilpasse seg den pseudobevisste verdenen, i alle fall når det gjelder filosofiske betenkeligheter.

Du trenger ikke kjøpe Freuds forklaring på den foruroligende effekten av det uhyggelige når det gjelder hjernens innsats for å undertrykke den barnslige animismen*, med tro på at det å ikke bekymre seg og følge med strømmen vil gjøre en verden befolket med kommunikative, uekte mennesker til et forbausende komfortabelt sted.

Folk kan erkjenne at noe ikke er levende og på samme tid behandle det som om det var det. Noen vil ta dette for langt, og danne problematiske tilknytninger som Freud ville ha kalt fetisjistiske. Men noen følsomme sjeler vil føle seg forlatt og stirre inn i en eksistensiell – men personlig – avgrunn åpnet opp av muligheten for at deres til-synelatende tanker er verdiløse.

 

KI på spedbarnsstadiet

Hva om Agüera y Arcas har rett, og at det som vitenskapen anser som livløst, på en kryptisk, delvis og fremvoksende måte, i virkeligheten er levende? Da vil det være på tide å gjøre for KI noe av det Freud trodde han gjorde for mennesker.

Etter å ha innsett at det bevisste sinnet ikke var alt, lette Freud andre steder etter kilder til begjær som påvirker vår oppførsel på godt og vondt. Svært få mennesker tror nå på de freudianske forklaringene på menneskelig atferd som fulgte. Men ideen om at det er grunner til at folk gjør ting de ikke er bevisst på, er en del av verdens mentale inventar. Det ubevisste er sannsynligvis ikke en god modell for hva det enn er som får de store språkmodellene til å fremstå med en tilsynelatende mening eller noe som minner om handlekraft. Men følelsen av at det kan være noe under KI-overflaten som vi ikke ennå forstår, kan vise seg å være sterk.

Professor Bender og de som er enige med henne, vil trolig ha problemer med slike forestillinger. Men de finner kanskje ut at de er nyttige for å få på plass en «KI-etikk». For å blinke ut ubevisste skjevheter som har oppstått i den pre-verbale spedbarnsalderen av KI-treningen, som å håndtere motsetningene bak hallusinasjonene og å regulere ondsinnede forespørsler, kan ideer fra psykoterapien være nyttige analogier. De kan gjøre det lettere å håndtere overgangen til en verden preget av pseudo-bevisst KI, selv for dem som avviser alle forestillinger om et KI-sinn.

Det å sammenligne forholdet mellom foreldre og barn med programmerere og deres «barn», kan også være nyttig. Hva vil det si å oppfostre en kunstig intelligens på en god måte? Hva slags oppdragelse bør være forbudt? I hvilken grad bør skaperne av kunstig intelligens holdes ansvarlige for skadene deres skaperverk kan gjøre?

Og kanskje bør vi også se nærmere på de menneskelige lengslene. Hvorfor er så mange mennesker interessert i den typen intimitet som en stor språkmodell kan gi? Hvorfor ser det ut til at så mange innflytelsesrike mennesker tror at fordi evolusjonen viser at arter kan dø ut, er det sannsynlig at mennesket selv – eller våre etterfølgere – vil forårsake vår arts utryddelse?

Og hvor er viljen til å gjøre en overmenneskelig rasjonalitet til noe som ikke bare oppildner økonomien, men endrer historien til det bedre?

Publisert i The Economist 20. april 2023.