Hvordan er det å være 30ToMarsFandom?


Både Hollywood og Silicon Valley debatterer muligheten for at kunstig intelligens blir bevisst. Men er dette et realistisk scenario?

Tekst: Benjamin Wold Birmanis
Illustrasjon: Victoria Haalman Hamre

 

I 1974 spurte filosofen Thomas Nagel omverdenen: «Hvordan er det å være flaggermus?» Denne flyvende, nærmest blinde skapningen, som orienterer seg i verden gjennom ekkolokasjon, er annerledes enn mennesker på så mange måter. Likevel vil de fleste være enige i at en flaggermus er bevisst. Et av poengene til Nagel er at vi som mennesker analyserer bevissthet ut ifra vår fenomenologiske erfaring; hvordan kan vi forestille oss en verden tegnet av lyd når vi selv eksisterer i et visuelt univers? Og hvis så er, hvordan vil en slik bevissthet oppleves for maskinen? I likhet med flaggermusen blir dette et tankeeksperiment der vi som mennesker føler oss fram i blinde. Men før vi kan diskutere hvordan kunstig bevissthet er, må vi spørre om vi kan være sikre på at roboter er bevisste i det hele tatt.

 

30ToMarsFandom

Først er det kanskje lurt med en definisjon på kunstig intelligens. Kunstig intelligens refererer hovedsakelig til roboter eller maskiner som utfører oppgaver som vanligvis blir utført av intelligente vesener. I stor grad dreier kunstig intelligens seg om å løse problemer. Tidlige versjoner fulgte statiske algoritmer der en spesifikk handling er knyttet til en spesifikk stimulus. Denne formen for kunstig intelligens er fremdeles utbredt. I nyere tid har mer dynamiske maskiner blitt utviklet. I stedet for at maskinen gjør samme feil på grunn av at du programmerte den på utilstrekkelig vis, har den nå evnen til å omkalibrere algoritmen sin når den gjør feil. Dette kalles, ikke overraskende,«maskinlæring».

 

Det er i denne retningen frykten rundt kunstig bevissthet ligger. Flaggermusen antar vi at er bevisst fordi den har en hjerne som ligner tilstrekkelig på vår. I tillegg oppfører den seg på en måte som vi har lært å assosiere med bevissthet. Bevisst oppførsel er kompleks, og det er også her det største problemet med kunstig bevissthet ligger: Hva skjer om vi lager en robot som kan gjenskape «bevisst adferd» uten selv å være bevisst?

 

30ToMarsFandom er en Twitter bot som ble blokkert som følge av etterforskningen av russisk påvirkning på det amerikanske valget. En av tingene som kjennetegner Twitter bots er at de glir lett inn i cybermengden. Måten de oppdages på er gjennom grundigere undersøkelser av den helhetlige aktiviteten og om den følger et mistenksomt mønster. I hver isolerte handling er det vanskelig å se forskjell på en bot og et menneske. Det finnes maskiner og programmer som er bedre til å simulere menneskelig adferd enn Twitter bots, men de er ikke like latterlige. Hovedpoenget er at vi har maskiner og programmer som kan simulere sosial adferd, noe som definitivt kan regnes som et bevissthetstegn, på en måte som lurer mennesker. Alan Turing, den kunstige intelligensens far, mente at når en robot kan lure et menneske til å tro at det er bevisst, da er det bevisst. Dette tatt i betraktning, kan vi virkelig si at 30ToMarsFandom er bevisst, selv om den består Turingtesten?

 

Løsrivelsen

En del av maskinlæring er skapelsen av adferd som maskinen ikke opprinnelig var programmert til å utføre. Et eksempel på dette kan være å følge trendene i online skjellsord mot politiske motstandere, noe som 30ToMarsFandom antakeligvis var veldig flink til å plukke opp på. Denne løsrivelsen fra de opprinnelige algoritmene fostrer bekymringer om at kompliserte nok programmer etterhvert kan forlate mer grunnleggende programmering. Tenk om 30ToMarsFandom plutselig fikk det for seg at i stedet for å tweete om Crooked Hillary, så var det mer givende å poste bilder av katter? Eller enda mer radikalt, kanskje den hacker en 3D-printer og bygger seg en kropp? Slike tanker glir selvfølgelig mer og mer inn i science-fiction. Poenget er at fri vilje er noe vi assosierer med bevissthet. Hva fri vilje er, og hvordan det ser ut, er vanskelig å si. Det som kanskje er kun tilfeldig ulydighet hos en robot ser ut som fri vilje fra vårt perspektiv.

 

Silisium-diskriminering

Det er et risikabelt foretak å kategorisere noe som bevisst; det har blitt skrevet utallige bøker om bare det å være sikker på at andre mennesker er bevisste. Bevissthetens fenomenologiske natur er slik at det alltid vil kun være en antakelse om at andre skapninger besitter det. Jeg vet at jeg er bevisst, og min sikkerhet på andres bevissthet er basert på deres likhet med meg. Som nevnt i diskusjonen om flaggermusen antar vi at den er bevisst på bakgrunn av dens karbonbaserte hjerne og noen adferdsmønstre. Selv om adferdsmønstrene til en robot tilsynelatende kan virke mer menneskelige enn adferdsmønstrene hos flaggermusen, vil vi heller regne flaggermusen for å være bevisst, nettopp på grunn av likhetstrekkene mellom hjernene våre.

 

Vi vet ikke hva det er ved vår hjerne som gjør at vi er bevisste, og vi vet ikke om bevissthet er begrenset til vår type hjerne. Epistemologi, læren om hva vi kan vite, dreier seg i stor grad om hvordan vi kan rettferdiggjøre antakelser, da absolutt sikkerhet er en mangelvare i de fleste filosofiske disipliner, spesielt bevissthetsfilosofi. Det er vanskelig å sette ord på den motviljen vi møter muligheten for kunstig bevissthet med. Kanskje vi føler en sikkerhet ved å tenke at man trenger en karbon-basert hjerne med en viss kompleksitet for å være bevisst; da er vi i hvert fall på toppen av bevissthetskjeden. Uten noen ordentlig forståelse om hvordan vår hjerne skaper bevissthet, er det i hvert fall legitimt å vurdere hvordan ikke-karbonbaserte prosessorer kan skape bevissthet.

 

 

Tilbake til flaggermusen

I «Hvordan er det å være en flaggermus?» er implikasjonen at flaggermusens bevissthet er tilpasset flaggermusen. Det betyr at alt fra sensorisk og kroppslig orientering til drifter og mål bestemmer hvordan bevisstheten til flaggermusen er. Vi mennesker har derimot språk, vi har mer raffinerte konsepter og vi kan konstruere tanker på en helt annen måte enn en flaggermus. Dette leder til to konsepter som er relevante til diskusjonen rundt kunstig bevissthet: Embodied Cognition og Teleosemantics.

 

Embodied Cognition er et av begrepene som det er vanskelig å oversette, noe psykologien er oversvømt med. Et forsøk er «kroppsbasert kognisjon». Det er et relativt nytt konsept i analysen av bevissthet. Essensen er at vårt sinn, og andre skapningers sinn, står i en uunngåelig relasjon til kroppen sinnet bor i. Altså, vi kan ikke bare se på hjernen når vi prøver å forstå bevissthetens anatomi.

Teleosemantics, eller «teleosemantikk», prøver å forklare byggeblokkene i sinnet vårt ved å fokusere på det adaptive opphavet til hver enkelt blokk. Dette er en relativt kompleks teori som bør forklares mer inngående for å kunne blir framstilt i sin helhet. Til vårt formål er det tilstrekkelig å ta med prinsippet om at vår bevissthet er formet av miljøet den har utviklet seg i.

Vi har da altså to prinsipper som kan fortelle oss noe om hva som påvirker fenomenologisk bevisste erfaringers natur: 1) Kroppen bevisstheten er i og 2) miljøet bevisstheten utvikles i. Dette er prinsipper som det er debatt rundt og som man kan være uenig om, men for den videre diskusjonens skyld, har vi nå noen håndtak å holde oss i når vi nå prøver å forestille oss hvordan kunstig bevissthet kan være.

 

Fra Westworld til Skynet

Kunstig intelligens kommer i mange former. To hovedkategorier som jeg kommer til å ta for meg er det vi kan kalle humanoide og ikke-humanoide. I HBO-serien «Westworld» finner vi roboter som har blitt spesifikt laget for å være så like mennesker som mulig, til det punktet at man ikke er sikker på om de er ekte eller ikke. Da serien i stor grad handler om jakten på bevisstheten til disse robotene, er det uklart på hvilken måte de ikke er bevisste i utgangspunktet. Da de fremdeles er slaver for programmeringen sin og hukommelsen deres regelmessig blir slettet, er dette kanskje mer kriterier for selv-identifisering og identitet enn fenomenologisk bevissthet. Gitt at bevissthet kan produseres i en silisium-hjerne, er det vanskelig å se hvordan en skapning som er designet identisk med et menneske ikke vil ha en lignende bevissthet. Dette er spesielt tilfelle hvis de blir satt inn i et miljø som korresponderer med de funksjonene mennesket har utviklet seg til å respondere mot; selv om robotene selv ikke har gjennomgått evolusjonen, vil deres skapelse i menneskets bilde medbringe den samme adaptive arven, som igjen vil manifestere seg likt innenfor de samme rammene.

 

På den andre siden har vi Skynet fra Terminator-filmene. Skynet ble i utgangspunktet laget for å kontrollere militære forsvarssystemer i et forsøk på å fjerne menneskelige feil. I stedet blir det bevisst og bestemmer seg for å utrydde menneskeheten. Her har vi da altså et program som er designet for å prosessere veldig spesifikk informasjon, militære trusler, og å respondere på veldig spesifikke måter. Selv om Skynet lærte seg nye måter å prosessere informasjon på, og lærte seg nye responser, virker det merkelig at et slikt program plutselig skulle utvikle noe som ligner på følelser og motivasjon.

 

Google utviklet faktisk et lignende system i fjor. Objektgjennkjennelsesprogrammet AutoML «fødte» et datterprogram, NASNet. NASNet utkonkurerte alle andre lignende programmer. Her har vi da et eksempel på et intelligent program som ikke bare forbedrer seg selv, men skaper et nytt program som er bedre enn alle andre. Men NASNet er kun bedre på akkurat det hun ble født til å gjøre. Det var ingen tegn til noen nye ferdigheter eller innsikter utover det å kjenne igjen visse objekter.

 

Det at NASNet kun forholder seg til sine oppgaver betyr jo ikke at hun ikke er bevisst. Skynet er et fiktivt system basert på menneskelig paranoia og antroposentrisme. Ting som fri vilje og selvforståelse er ikke en nødvendighet for å være bevisst; mange dyr har nok ingen av delene. Men det er heller ikke klart hvorfor NASNet vil trenge å være bevisst. Det er en rimelig antakelse at bevissthet har en evolusjonær fordel, og et forslag til hva det kan være er at det fungerer som en «micromanager», en slags problemløser som takler uvante problemer. Der programmert adferd kommer til kort, går bevisstheten inn og ser på problemer med ferske øyne. Akkurat til dette punktet kan vi forestille oss at NASNet kunne hatt bruk for en begrenset bevissthet. Selv om NASNet er bedre enn andre programmer, har hun likevel 17.3% å gå på før hun er ufeilbarlig.

 

Her løper vi inn i problemet med en kropp igjen. La oss ta et enkelt eksempel: Når et menneske ser noe slangelignende, aktiveres vårt sympatiske nervesystem, og alle fysiske og sensoriske ting dette medfører bidrar til vår bevisste opplevelse av situasjonen. Hvordan vil NASNet reagere når hun oppdager sin slange? Hva er et programs sympatiske nervesystem? Det er her vi glir inn i en forestillingsverden som ligger utenfor vår rekkevidde. Kanskje det er en eller annen kodesekvens som utgjør noe som ligner en sympatisk nervesystemreaksjon. Men når det er så radikalt forskjellig fra vår verden, blir det å føle empati med en flaggermus lett i forhold til å se verden gjennom en robots øyne.

 

Empatiens grenser er den største utfordringen i forståelsen av bevissthet som et fenomen fri fra mennesket. Vi kan lage noen prinsipielle krykker, som embodied cognition og teleosemantikk, men dette er fremdeles prinsipper som er utledet fra analyse av oss selv. En maskin kan kanskje utvikle en bevissthet som trosser alle våre legitime antakelser om bevissthetens natur. Det kan også hende at humanoide roboter utvikler en bevissthet som er slående lik. Og hvis dette skjer, er det jo bare å skue utover menneskeheten og dens nåværende tilstand, puste ut og slå oss til ro med at dette ikke vil være et problem i det hele tatt. Alt kommer til å gå bra.

 

Benjamin Wold Birmanis går 6. semester på bachelor i psykologi.

 

Lenker:

https://www.bostonglobe.com/metro/2017/11/01/here-full-list-russia-linked-twitter-handles/UqBLnttWWTSppw16vsvOPO/story.html

http://www.independent.co.uk/life-style/gadgets-and-tech/news/google-child-ai-bot-nasnet-automl-machine-learning-artificial-intelligence-a8093201.html

Referanser:

Nagel, T. (1974). What is it like to be a bat? The philosophical review, 83(4), 435-450.

Legg igjen en kommentar