Kan datorer tänka?

0. Inledning
John R Searles klassiska artikel ”Minds, Brains, and Programs” kommer här att diskuteras tillsammans med Daniel C. Dennetts svar . Diskussionen kommer att kretsa kring huruvida det är möjligt för datorer att vara kapabla till AI (Artificiell Intelligens) i stark mening.

Searle gör en distinktion mellan stark och svag AI, där svag AI beskrivs som en dator som kan behandla stora mängder information på ett effektivt sätt utan att egentligen förstå informationen. Stark AI är å andra sidan en dator som kan, på samma sätt som vi är förmögna till, förstå information (249).

”Men enligt stark AI är datorn inte enbart ett verktyg […] en korrekt programmerad dator […] är ett medvetande…” (249)

Vi bör vara, som Searle mycket klokt påpekar, aktsamma med terminologin. Ibland säger vi till exempel att en termostat ”känner av” temperaturen. Detta är en metafor som är missvisande. Termostaten känner ingenting. På samma sätt bör vi akta oss för att säga att en dator ”förstår” information ”på ett annat sätt”. För att undvika missförstånd kommer jag att tillskriva ordet ”förstår” endast en betydelse, vilket är den som vi till vardags använder när vi säger att ”jag förstår ditt argument”, ”jag förstår det här matematikproblemet” eller ”jag förstår inte hur du kan gilla opera”. Det bör även påpekas att en dator i det här sammanhanget är en maskin som är programmerad att manipulera data, och som är teoretiskt reducerbar till en Turingmaskin.

1.1 Det kinesiska rummet
Searle menar att de som tror att stark AI finns, eller har en möjlighet att bli verklighet, har missförstått vad förståelse innebär. Vissa (Schank, Abelson 1977) tycks anse att det är fullt tillräckligt att en dator ska kunna konversera med människor på ett sätt som övertygar dess samtalspartner att de kommunicerar med en person för att datorn ska kunna anses ha stark AI (250). Searle tillbakavisar denna föreställning och presenterar ett tankeexempel som avser att övertyga oss om hans idé. Tankeexemplet går under namnet Det kinesiska rummet.

Det kinesiska rummet består av en (engelsktalande) man som saknar kunskap i kinesiska, en uppsättning kinesiska tecken skrivna på små papperslappar och en regelbok med instruktioner på engelska om hur mannen ska svara på vissa kinesiska tecken med andra kinesiska tecken. Om en person som talade kinesiska skulle föra in en mening på kinesiska, exempelvis, ”vilken färg har apelsiner?”, skulle mannen i Det kinesiska rummet kunna slå upp tecknen i sin bok och svara med tecknet ”orange” utan att förstå vare sig frågan eller svaret. Personen som ställde frågan skulle antagligen tro att han talade med någon som förstod vad han sa, precis som vi ibland upplever att datorprogram gör. Men vi som vet hur det ser ut i det kinesiska rummet vet att ingen del av rummet har förstått någonting. Searle menar att det kinesiska rummet fungerar precis på samma sätt som datorer fungerar. Datorer processar en viss mängd information enligt vissa regler, som består i programmeringen. Men eftersom datorernas hantering av informationen är rent syntaktisk, och inte semantisk, så kan man knappast säga att datorer begriper någonting alls (251-2).

Förespråkarna av stark AI menar ju att det inte föreligger någon artskillnad mellan en persons förmåga att förstå kinesiska och det kinesiska rummets förmåga att svara med korrekt output på den givna informationen. Men Searles exempel verkar visa att det handlar om just en artskillnad. För om vi antar att mannen i det kinesiska rummet, som ju kunde engelska men inte kinesiska, skulle få frågor på engelska så skulle han kunna svara på dem lika effektivt som han skulle kunna svara på de kinesiska frågorna. Så även om man utifrån inte skulle kunna se någon skillnad mellan hur det kinesiska rummet svarade på frågorna, så uppfattar vi (och mannen i rummet) en avgörande skillnad: när mannen svarar på de engelska frågorna så förstår han vad han talar om!

Alltså så kan vi, enligt Searle, dra följande slutsatser:
1. Mannen i det kinesiska rummet förstår inte kinesiska, och i kraft av att det kinesiska rummet är analogt med en dator, så förstår inte datorer heller den information de matas med eller den information som de svarar med, även om de inte kan urskiljas från vanliga språkanvändare.

2. Då exemplet visar att syntaktisk information med åtföljande programvara inte är tillräckligt för att mannen i rummet ska förstå kinesiska och att han kan förstå engelska helt utan dessa hjälpmedel så kan vi sluta oss till att en dators förmåga att processa information inte är tillräcklig för att uppnå förståelse av den givna informationen.

3. Dessutom, menar Searle, så visar ”Det kinesiska rummet” att det är förmodligen är falskt att den förmåga att manipulera information som datorer besitter ens utgör ett nödvändigt skäl för att uppnå det vi till vardags kallar förståelse. Searle menar att det datorer utför inte verkar ha något alls att göra med det vi kan tänkas göra när vi reflekterar över information (253).

”…så länge programmen definieras som beräkningsoperationer över helt och hållet formellt specificerade element finns det ingen intressant relation mellan dem och förståelse. De ger definitivt inte tillräckliga villkor för förståelse, och inga som helst skäl har framlagts för åsikten att de skulle ge nödvändiga villkor för. eller ens utgöra en betydande del av, förståelse” (253).

1.2 Searle svarar på invändningar:
Mot Searles slutsatser har ett antal invändningar rests, vilka han besvarar i artikeln. En av de vanligaste invändningar består i att Searles exempel inte tar hänsyn till att även om mannen i det kinesiska rummet inte förstår kinesiska, så kanske rummet i sin helhet förstår kinesiska. Om mängden syntax är tillräckligt omfattande, och programmet är tillräckligt intrikat, så menar kritikerna att rummet som system förstår kinesiska på samma sätt som mannen i rummet förstår engelska. Denna invändning benämner Searle som Systemsvaret.

Searle svarar med att be oss att föreställa oss att mannen skulle lära sig alla kinesiska tecken och instruktionerna, att han helt enkelt skulle internalisera hela det kinesiska rummet. Enligt Searle skulle mannen ändå inte förstå någon kinesiska, även om han, utan hjälpmedel, skulle kunna kommunicera med en kines utan den minsta svårighet. Han menar att det är absurt att föreställa sig att konjunkten av mannen, informationen och programmet kan förstå det som mannen själv inte förstod (255).

Även om jag håller med Searle om att det är svårt att få klarhet i vad det innebär att tillsammans med en trave papperslappar och en instruktionsbok förstå något så tror jag att Searle gör ett misstag här. Han missförstår vad förespråkarna av stark AI är ute efter. De vill inte påvisa att en dator tänker som en människa, de vill påvisa att vårt medvetande är reducerbart eller jämförbart med en dators informationshantering. De vill inte påvisa att en dator förstår kinesiska på samma sätt som Searle menar att han förstår engelska, de vill snarare hävda att det sätt på vilket Searle förstår engelska inte skiljer sig från det sätt som en dator kan förstå ett språk. När Searle påpekar att det är självklart att mannen som internaliserat det kinesiska rummet inte förstår kinesiska har han alltså förutsatt den tes som han argumenterar för, nämligen att mänsklig förståelse är fundamentalt annorlunda än datorers ”förståelse”.

Searle menar att när mannen i det kinesiska rummet väl har internaliserat kinesiskan kommer han visserligen kunna kommunicera på kinesiska lika väl som på engelska, men det kommer att vara en fundamental skillnad i mannens f

Publicerad onsdag, januari 10th, 2007 i filosofi.

En kommentar

  1. Simon skriver:

    Saknas text i slutet? Annars intressant och behändigt om det kinesiska rummet.

Vad tycker du?