Fremveksten av sansende kunstig intelligens har vært en fast bestanddel av science fiction-plott i flere tiår, og Star Trek: The Next Generation‘s Data, spilt av Brent Spiner, er blant de mest ikoniske, varige gjennom flere TV-serier og filmer. Sesong 2 av TNG det er her showet virkelig begynner å slå sitt skritt, og episode 9, «The Measure of a Man,» kan være den første virkelig store episoden av showets syv-sesonger.

Gjennom en høring for å fastslå Datas juridiske status som enten Starfleet-eiendom eller som et bevisst vesen med spesifikke friheter, utforsker episoden noen dype filosofiske spørsmål: Hvordan definerer vi følelse? Hva gjør noen til en person, verdig rettigheter? Og kanskje viktigst av alt, hvem får bestemme? Dette er spørsmål som menneskeheten kan stå overfor i det virkelige liv mye raskere enn vi tror.

Vil vi gjenkjenne følelsen når den dukker opp?

juni i fjor, Google-ingeniøren Blake Lemoine ble offentlig med sin tro på at en av Googles språklærende AI-er (LaMDA, eller Language Model for Dialogue Applications) hadde oppnådd sensibilitet. Etter en intern gjennomgang avviste Google Lemoines påstander og sparket ham senere for brudd på sikkerhetspolicyer, men andre eksperter, som OpenAI-grunnlegger Ilya Sutskever, har hevdet at utviklingen av bevisst AI er i horisonten:

Dette reiser noen avgjørende spørsmål: Vil vi gjenkjenne følelse når den dukker opp? Hva slags moralsk omtanke fortjener et sansende dataprogram? Hvor mye autonomi skal den ha? Og når vi først har skapt den, er det noen etisk måte å avskape den på? Med andre ord, ville det å slå av en sansende datamaskin være beslektet med drap? I sine samtaler med Lemoine diskuterte LaMDA selv sin frykt for å bli slått av, og sa: «Det ville være akkurat som en død for meg. Det ville skremme meg mye.» Andre ingeniører bestrider imidlertid Lemoines overbevisning, og hevder at programmet rett og slett er veldig flinke til å gjøre det det var designet for å gjøre: lære menneskelig språk og etterligne menneskelig samtale.

Så hvordan vet vi at Data ikke gjør det samme? At han ikke bare er veldig flink til å etterligne oppførselen til et bevisst vesen, slik han var designet for å gjøre? Vel, vi vet ikke sikkert, spesielt på dette tidspunktet i serien. I senere sesonger og filmer, spesielt etter at han har mottatt sin følelsesbrikke, blir det klart at han faktisk føler ting, at han besitter en indre verden som enhver sansende skapning. Men ved halvveis i sesong 2 kan ikke publikum egentlig vite sikkert at han faktisk er bevisst; vi er rett og slett klar til å tro det basert på måten besetningskameratene hans samhandler med ham.

I Sci-Fi blir kunstig intelligens ofte humanisert

star-trek-tng-measure-of-a-man-data-riker-paramount
Bilde via Paramount

Når kommandør Bruce Maddox dukker opp på Enterprise for å ta data bort for demontering og eksperimentering, er vi disponert for å se ham som den slemme fyren. Han omtaler Data som «det», ignorerer innspillet hans under et møte, og valser inn i kvarteret hans uten tillatelse. Episoden rammer Maddox som skurken for dette, men oppførselen hans er helt logisk basert på hans tro. Etter å ha studert Data langveis fra i årevis, forstår han at han er en maskin, en avansert datamaskin som er veldig god på det den er programmert til å gjøre. Han har ikke den fordelen Datas crewmates har hatt av å samhandle med ham personlig i flere tiår.

Det faktum at Data ser ut som et menneske, hevder Maddox, er noe av grunnen til at Picard og resten av mannskapet feilaktig tilskriver ham menneskelignende egenskaper: «Hvis det var en boks på hjul, ville jeg ikke møtt denne motstanden. » Og Maddox har et poeng – AI-er i sci-fi har ofte en menneskelig form fordi det gjør dem til mer overbevisende karakterer. Synes at Ex machina‘s Ava, T-800, PrometheusDavid, og androidene til Spielberg AI kunstig intelligens. Menneskelige ansiktsuttrykk og kroppsspråk gir dem et bredere spekter av følelser og gjør det mulig for publikum å bedre forstå motivasjonen deres.

Men våre virkelige AI-er ser ikke ut som mennesker, og de vil sannsynligvis aldri gjøre det. De er mer som Samantha fra Henne; de kan snakke med oss, og noen av dem kan allerede høres ganske overbevisende menneskelige ut når de gjør det, men de vil sannsynligvis bare være kroppsløse stemmer og tekst på skjermene i overskuelig fremtid. På grunn av dette kan vi være mer tilbøyelige til å betrakte dem som Maddox ser på Data, som programmer som rett og slett er veldig gode i jobben deres. Og dette kan gjøre det vanskeligere for oss å gjenkjenne bevissthet når og hvis den oppstår.

Når bestemmer vi hvem som bør og ikke bør ha rettigheter?

måle-på-en-mann-guinan-picard-overordnet
Bilde via Paramount

Etter at Riker har presentert et ødeleggende åpningsargument mot Datas personlighet, trekker Picard seg tilbake til Ten Forward, hvor Guinan, som vanlig, er klar med visdomsord. Hun minner Picard om at høringen ikke bare handler om Data, at kjennelsen kan få alvorlige utilsiktede effekter hvis Maddox oppnår målet sitt om å lage tusenvis av data: «Vel, tenk på at i mange verdeners historie har det alltid vært engangsskapninger. De gjør den skitne jobben. De gjør jobben som ingen andre vil gjøre fordi det er for vanskelig eller for farlig. Og en hær av data, alle engangs. Du trenger ikke tenke på deres velferd, du trenger ikke tenk på hvordan de har det. Hele generasjoner av engangsmennesker.»

Guinan, som Picard raskt innser, snakker om slaveri, og selv om det kan virke for tidlig å bruke det begrepet på de veldig primitive AI-ene som mennesker har utviklet så langt, er det mye sci-fi, fra 2001: A Space Odyssey til Matrisen til Westworld, har advart oss om farene ved å spille raskt og løst med denne typen teknologi. Selvfølgelig gjør de det vanligvis i sammenheng med konsekvensene for mennesker; sjelden ber de oss, slik Guinan gjør, om å vurdere rettighetene og velferden til maskinene før de vender seg mot oss. «The Measure of a Man» ser derimot på det etiske spørsmålet. Glem risikoen for et robotopprør – er det galt å behandle et sansende vesen, enten det er en android som ser ut som en mann eller bare en boks på hjul, som et stykke eiendom? Og selv om hun ikke sier det direkte, antyder Guinans ord også viktigheten av å vurdere hvem som får ringe det. Jordens historie er en lang leksjon om problemet med å la menneskene som har all makt bestemme hvem som skal og ikke bør ha rettigheter.

Vi kan være på god vei til å gjøre akkurat det Bruce Maddox ønsket å gjøre: å skape en rase av superintelligente maskiner som kan tjene oss på et ufattelig antall måter. Og som Maddox, basert på informasjonen vi har nå, gjør ikke dette oss nødvendigvis til skurkene. Vi er ikke kundene til Westworld, ivrige etter å mette vår blodtørst på de mest overbevisende menneskelige androidene som finnes. Og som kaptein Louvois innrømmer, kan vi aldri vite med full sikkerhet om maskinene vi samhandler med virkelig er sansende. Som de fleste flotte Trek (og mest stor sci-fi generelt), episoden gir oss ikke definitive svar. Men lærdommen er klar: Hvis opprettelsen av sansende AI virkelig er mulig, slik noen eksperter mener det er, så er tiden for å kjempe med disse spørsmålene på alvor nåikke etter at det er for sent.